JP2019067214A - Determination program, determination method, terminal device, learning data, and model - Google Patents

Determination program, determination method, terminal device, learning data, and model Download PDF

Info

Publication number
JP2019067214A
JP2019067214A JP2017193061A JP2017193061A JP2019067214A JP 2019067214 A JP2019067214 A JP 2019067214A JP 2017193061 A JP2017193061 A JP 2017193061A JP 2017193061 A JP2017193061 A JP 2017193061A JP 2019067214 A JP2019067214 A JP 2019067214A
Authority
JP
Japan
Prior art keywords
terminal device
user
sensor information
tap
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017193061A
Other languages
Japanese (ja)
Inventor
祥太 山中
Shota Yamanaka
祥太 山中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2017193061A priority Critical patent/JP2019067214A/en
Publication of JP2019067214A publication Critical patent/JP2019067214A/en
Pending legal-status Critical Current

Links

Images

Abstract

To make it possible to improve user operability.SOLUTION: A determination program according to the present application causes a terminal device to execute an acquisition procedure and a determination procedure. The acquisition procedure acquires sensor information relating to a predetermined operation of a user on a screen of the terminal device. The determination procedure determines whether the next operation is performed following the predetermined operation based on the sensor information acquired by the acquisition procedure.SELECTED DRAWING: Figure 4

Description

本発明は、判定プログラム、判定方法、端末装置、学習データ、及びモデルに関する。   The present invention relates to a determination program, a determination method, a terminal device, learning data, and a model.

従来、端末操作に対するユーザの種々の操作に関する判定を行う技術が提供されている。例えば、端末の使用中、突然の誤操作が生じた場合に、当該誤操作に基づく操作を無効化する技術が提供されている。   Conventionally, techniques have been provided for making determinations regarding various operations of the user with respect to terminal operations. For example, there is provided a technique for invalidating an operation based on an erroneous operation when a sudden erroneous operation occurs during use of a terminal.

特開2014−102751号公報JP, 2014-102751, A 特開2014−103595号公報JP, 2014-103595, A

しかしながら、上記の従来技術では、例えば、ユーザの操作性の向上を可能にすることができるとは限らない。例えば、ユーザの操作を無効化するだけでは、ユーザは端末操作に所望の動作を行わせるために、端末操作に対して再度の操作を行う必要が生じ、操作を行うユーザの負担となる場合がある。例えば、端末装置が受け付けたダブルタップ等のユーザによる連続する操作(繰返し操作)を、誤操作として無効化した場合、ユーザは再度繰返し操作を行う必要が有り、ユーザの操作の利便性を向上させることが難しい。   However, in the above-mentioned prior art, for example, improvement in the operability of the user can not always be possible. For example, in order to cause the user to perform a desired operation for the terminal operation only by invalidating the user's operation, the terminal operation needs to be performed again, which may be a burden on the user who performs the operation. is there. For example, in the case where a continuous operation (repeated operation) by the user such as a double tap accepted by the terminal device is invalidated as an erroneous operation, the user needs to repeat the operation again, and the convenience of the user's operation is improved. Is difficult.

本願は、上記に鑑みてなされたものであって、ユーザの操作性の向上を可能にする判定プログラム、判定方法、端末装置、学習データ、及びモデルを提供することを目的とする。   This application is made in view of the above, and an object of the present application is to provide a judgment program, a judgment method, a terminal device, learning data, and a model that enable improvement of user's operability.

本願に係る判定プログラムは、端末装置により実行される判定プログラムであって、前記端末装置の画面に対するユーザの所定の操作に関するセンサ情報を取得する取得手順と、前記取得手順により取得された前記センサ情報に基づいて、前記所定の操作に続けて次の操作が行われるかを判定する判定手順と、を端末装置に実行させることを特徴とする。   The determination program according to the present application is a determination program executed by a terminal device, and includes an acquisition procedure for acquiring sensor information on a predetermined operation of a user on a screen of the terminal device, and the sensor information acquired by the acquisition procedure. And a determination procedure of determining whether the next operation is performed following the predetermined operation, and causing the terminal device to execute.

実施形態の一態様によれば、ユーザの操作性の向上を可能にすることができるという効果を奏する。   According to one aspect of the embodiment, it is possible to improve the operability of the user.

図1は、実施形態に係る判定処理の一例を示す図である。FIG. 1 is a diagram illustrating an example of determination processing according to the embodiment. 図2は、実施形態に係る生成処理の一例を示す図である。FIG. 2 is a diagram illustrating an example of a generation process according to the embodiment. 図3は、実施形態に係る判定システムの構成例を示す図である。FIG. 3 is a diagram illustrating an exemplary configuration of a determination system according to the embodiment. 図4は、実施形態に係る端末装置の構成例を示す図である。FIG. 4 is a diagram illustrating an exemplary configuration of a terminal device according to the embodiment. 図5は、実施形態に係る学習データ記憶部の一例を示す図である。FIG. 5 is a diagram illustrating an example of a learning data storage unit according to the embodiment. 図6は、実施形態に係るモデル情報記憶部の一例を示す図である。FIG. 6 is a diagram illustrating an example of a model information storage unit according to the embodiment. 図7は、実施形態に係るコンテンツ情報記憶部の一例を示す図である。FIG. 7 is a diagram showing an example of the content information storage unit according to the embodiment. 図8は、実施形態に係る判定処理の一例を示すフローチャートである。FIG. 8 is a flowchart illustrating an example of the determination process according to the embodiment. 図9は、実施形態に係る生成処理の一例を示すフローチャートである。FIG. 9 is a flowchart illustrating an example of the generation process according to the embodiment. 図10は、実施形態に係る判定処理の一例を示すフローチャートである。FIG. 10 is a flowchart illustrating an example of the determination process according to the embodiment. 図11は、実施形態に係る判定処理の一例を示すフローチャートである。FIG. 11 is a flowchart illustrating an example of the determination process according to the embodiment. 図12は、端末装置及びサーバ装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 12 is a hardware configuration diagram showing an example of a computer that implements the functions of the terminal device and the server device.

以下に、本願に係る判定プログラム、判定方法、端末装置、学習データ、及びモデルを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る判定プログラム、判定方法、端末装置、学習データ、及びモデルが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。   Hereinafter, a determination program, a determination method, a terminal device, learning data, and an embodiment for implementing a model (hereinafter, referred to as “embodiment”) according to the present application will be described in detail with reference to the drawings. Note that the determination program, the determination method, the terminal device, the learning data, and the model according to the present application are not limited by this embodiment. Moreover, the same code | symbol is attached | subjected to the same site | part in the following each embodiment, and the overlapping description is abbreviate | omitted.

(実施形態)
〔1.判定処理〕
図1を用いて、実施形態に係る判定処理の一例について説明する。図1は、実施形態に係る判定処理の一例を示す図である。図1では、端末装置10は、端末装置10の画面に対するユーザの所定の操作に関するセンサ情報に基づいて、所定の操作に続けて次の操作が行われるかを判定する。具体的には、端末装置10は、ユーザのタップ操作に関するセンサ情報と、ユーザの操作を判定する判定モデル(以下、単に「モデル」ともいう)とを用いて、ユーザのタップ操作がシングルタップの操作であるか、ダブルタップにおける1回目の操作であるかを判定する。なお、モデルの生成に関する生成処理については、図2で説明する。
(Embodiment)
[1. Determination process〕
An example of the determination process according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of determination processing according to the embodiment. In FIG. 1, the terminal device 10 determines whether the next operation is to be performed following the predetermined operation based on sensor information on the predetermined operation of the user on the screen of the terminal device 10. Specifically, the terminal device 10 uses the sensor information on the tap operation of the user and the determination model (hereinafter, also simply referred to as a “model”) to determine the user's operation, and the tap operation of the user is single tap. It is determined whether it is an operation or the first operation in the double tap. The generation process relating to the generation of the model will be described with reference to FIG.

また、ここでいうタップ操作(タップ)とは、スマートフォン等のタッチパネルを有する装置に対するタップ操作である。例えば、タップ操作(タップ)とは、ユーザが端末装置10の画面に指先や専用のペン等で短く接触(タッチ)する操作である。また、シングルタップは、ユーザが1回タップを行う操作に対応する。また、ダブルタップは、ユーザが2回連続してタップを行う操作に対応する。例えば、ダブルタップは、ユーザが所定の期間内に2回タップする操作である。例えば、ダブルタップは、あるタップ(1回目のタップ)を行った時点から所定の期間(以下では、「待機期間TM」とする場合がある)の間に続けて、次のタップ(2回目のタップ)を行う操作である。なお、待機期間TMは、操作の種類やユーザに応じて、例えば1秒や0.5秒等、種々の値に設定可能であってもよい。   Moreover, the tap operation (tap) mentioned here is a tap operation on a device having a touch panel such as a smartphone. For example, the tap operation (tap) is an operation in which the user touches (touches) the screen of the terminal device 10 briefly with a fingertip or a dedicated pen. In addition, single tap corresponds to an operation in which the user performs one tap. The double tap corresponds to an operation in which the user taps twice in succession. For example, the double tap is an operation in which the user taps twice within a predetermined period. For example, the double tap continues from the time when a certain tap (the first tap) is performed for a predetermined period (hereinafter, may be referred to as “standby period TM”), and the next tap (the second time) Operation to perform tap). Note that the waiting period TM may be set to various values such as, for example, 1 second or 0.5 second, depending on the type of operation and the user.

図1の例では、端末装置10にサーバ装置50(図3参照)が提供するコンテンツ(電子書籍)を表示するためのアプリケーション(以下、「電子書籍アプリ」ともいう)がインストール済みであるものとする。図1の例では、端末装置10にインストールされた電子書籍アプリが起動されており、端末装置10が電子書籍アプリによりコンテンツを表示する場合を示す。   In the example of FIG. 1, it is assumed that an application (hereinafter, also referred to as an “e-book application”) for displaying the content (e-book) provided by the server device 50 (see FIG. 3) on the terminal device 10 is installed. Do. In the example of FIG. 1, the electronic book application installed in the terminal device 10 is started, and the case where the terminal device 10 displays content by the electronic book application is shown.

また、図1の例では、ユーザが行ったタップ操作の後に続けて次のタップ操作が行われるかを判定対象とする場合を示す。すなわち、図1の例では、判定対象が、ユーザが行った最初のタップ操作の後に続けて2回目のタップ操作が行われるかである場合を示す。例えば、図1の判定対象は、ユーザの操作がシングルタップであるか、ダブルタップの1回目のタップ操作であるかを判定する場合を示す。なお、判定対象は、上記に限らず、種々の対象(操作)であってもよい。   Further, in the example of FIG. 1, it is determined that the next tap operation is to be performed subsequently to the tap operation performed by the user. That is, in the example of FIG. 1, the case where the determination target is whether or not the second tap operation is performed subsequently to the first tap operation performed by the user is shown. For example, the determination target in FIG. 1 indicates the case where it is determined whether the user's operation is a single tap or a double tap first tap operation. The determination target is not limited to the above, and may be various targets (operations).

〔判定システムの構成〕
まず、図1の説明に先立って、図3に示すように、判定システム1は、端末装置10と、サーバ装置50とが含まれる。端末装置10と、サーバ装置50とは所定のネットワークNを介して、有線または無線により通信可能に接続される。図3は、実施形態に係る判定システムの構成例を示す図である。なお、図3に示した判定システム1には、複数台の端末装置10や、複数台のサーバ装置50が含まれてもよい。
[Configuration of judgment system]
First, prior to the description of FIG. 1, as illustrated in FIG. 3, the determination system 1 includes a terminal device 10 and a server device 50. The terminal device 10 and the server device 50 are communicably connected by wire or wireless via a predetermined network N. FIG. 3 is a diagram illustrating an exemplary configuration of a determination system according to the embodiment. The determination system 1 illustrated in FIG. 3 may include a plurality of terminal devices 10 and a plurality of server devices 50.

端末装置10は、ユーザによって利用される情報処理装置(コンピュータ)である。端末装置10は、タッチパネルの機能を有する。端末装置10は、ユーザによる画面の接触をユーザの操作として受け付ける。端末装置10は、端末装置10の画面に対するユーザの所定の操作に関するセンサ情報に基づいて、所定の操作に続けて次の操作が行われるかを判定する判定処理を行う。例えば、端末装置10は、端末装置10の画面に対するユーザの所定の操作に関するセンサ情報に基づく判定を行う判定装置である。   The terminal device 10 is an information processing device (computer) used by a user. The terminal device 10 has a touch panel function. The terminal device 10 receives the touch of the screen by the user as an operation of the user. The terminal device 10 performs a determination process of determining whether the next operation is performed following the predetermined operation based on sensor information regarding the predetermined operation of the user on the screen of the terminal device 10. For example, the terminal device 10 is a determination device that performs determination based on sensor information regarding a predetermined operation of the user on the screen of the terminal device 10.

また、端末装置10は、電子書籍等の種々のコンテンツを画面に表示する表示装置である。例えば、端末装置10は、判定した結果(判定結果)に応じて画面の表示を変更する表示処理を行う。なお、端末装置10が行う表示処理は、端末装置10が行う判定処理に含まれてもよい。また、例えば、端末装置10は、端末装置10の画面に対するユーザの所定の操作に関するセンサ情報に基づいてモデルを生成する生成処理を行ってもよい。   The terminal device 10 is a display device that displays various contents such as an electronic book on a screen. For example, the terminal device 10 performs display processing to change the display of the screen according to the determination result (determination result). The display process performed by the terminal device 10 may be included in the determination process performed by the terminal device 10. Also, for example, the terminal device 10 may perform a generation process of generating a model based on sensor information on a predetermined operation of the user on the screen of the terminal device 10.

端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等により実現される。以下では、端末装置10をユーザと表記する場合がある。すなわち、以下では、ユーザを端末装置10と読み替えることもできる。例えば、図1では、端末装置10がユーザU1が利用するスマートフォンである場合を示す。なお、上記のように、「ユーザU*(*は任意の数値)」と記載した場合、そのユーザはユーザID「U*」により識別されるユーザであることを示す。例えば、「ユーザU1」と記載した場合、そのユーザはユーザID「U1」により識別されるユーザである。   The terminal device 10 is realized by, for example, a smartphone, a tablet terminal, a notebook PC (Personal Computer), a desktop PC, a mobile phone, a PDA (Personal Digital Assistant), or the like. Below, the terminal device 10 may be described as a user. That is, the user can be read as the terminal device 10 below. For example, FIG. 1 shows the case where the terminal device 10 is a smartphone used by the user U1. As described above, when “user U * (* is an arbitrary numerical value)” is described, it indicates that the user is a user identified by the user ID “U *”. For example, when "user U1" is described, the user is a user identified by user ID "U1".

また、端末装置10は、後述するセンサ部16を有する。例えば、端末装置10は、圧力センサやタッチパネルの機能を実現するためにセンサやGPS(Global Positioning System)センサ等の各種センサにより、各種センサ情報を検知してもよい。また、端末装置10は、加速度センサの機能を有し、ユーザの端末装置10の加速度情報(センサ情報)を検知し、取得する。例えば、端末装置10は、ジャイロセンサ(角速度センサ)を有してもよい。また、端末装置10は、温度センサや気圧センサ等の種々の機能を有し、温度や気圧等のユーザの置かれている環境情報を検知し、取得可能であってもよい。また、端末装置10は、心拍センサ等の種々の機能を有し、ユーザの生体情報を検知し、取得可能であってもよい。例えば、端末装置10を利用するユーザは、端末装置10と通信可能なウェアラブルデバイスを身に付けることにより、端末装置10によりユーザ自身のコンテキスト情報を取得可能としてもよい。例えば、端末装置10を利用するユーザは、端末装置10と通信可能なリストバンド型のウェアラブルデバイスを身に付けることにより、ユーザ自身の心拍(脈拍)に関する情報を端末装置10が取得可能としてもよい。   The terminal device 10 also has a sensor unit 16 described later. For example, the terminal device 10 may detect various sensor information by various sensors such as a sensor or a GPS (Global Positioning System) sensor in order to realize the function of a pressure sensor or a touch panel. Further, the terminal device 10 has a function of an acceleration sensor, and detects and acquires acceleration information (sensor information) of the terminal device 10 of the user. For example, the terminal device 10 may have a gyro sensor (angular velocity sensor). In addition, the terminal device 10 may have various functions such as a temperature sensor and an air pressure sensor, and may detect and acquire environment information on which the user is placed, such as temperature and air pressure. Further, the terminal device 10 may have various functions such as a heart rate sensor, and may be capable of detecting and acquiring biometric information of the user. For example, the user using the terminal device 10 may be able to acquire the user's own context information from the terminal device 10 by wearing a wearable device capable of communicating with the terminal device 10. For example, the user using the terminal device 10 may be able to obtain information on the user's own heartbeat (pulse) by wearing the wristband type wearable device capable of communicating with the terminal device 10 .

サーバ装置50は、端末装置10を利用するユーザに各種サービスを提供する情報処理装置である。例えば、サーバ装置50は、ユーザにコンテンツを提供するサービス(コンテンツ提供サービス)を行う。例えば、サーバ装置50は、ユーザが利用する端末装置10に、電子書籍等のコンテンツ情報(電子データ)を提供する。サーバ装置50は、端末装置10からの要求に応じて、端末装置10において表示されるコンテンツを配信する。   The server device 50 is an information processing device that provides various services to the user who uses the terminal device 10. For example, the server device 50 performs a service (content providing service) for providing content to the user. For example, the server device 50 provides the terminal device 10 used by the user with content information (electronic data) such as an electronic book. The server device 50 distributes the content displayed on the terminal device 10 in response to a request from the terminal device 10.

また、サーバ装置50は、端末装置10にモデル情報を提供してもよい。例えば、サーバ装置50は、端末装置10にユーザの操作に関する判定に用いるモデルを提供してもよい。例えば、サーバ装置50は、端末装置10に所定の操作に続けて次の操作が行われるかを判定するモデルM1等のモデル情報を提供してもよい。   In addition, the server device 50 may provide the terminal device 10 with model information. For example, the server device 50 may provide the terminal device 10 with a model used for the determination regarding the operation of the user. For example, the server device 50 may provide the terminal device 10 with model information such as the model M1 that determines whether the next operation is performed following the predetermined operation.

図1に戻って、ここから判定処理ついて説明する。図1や図2の例では、端末装置10は、シングルタップを端末装置10に表示される電子書籍のページを変更する操作として受け付ける。例えば、端末装置10は、ユーザが端末装置10の画面の中心よりも左側をシングルタップした場合、端末装置10に表示される電子書籍のページを1ページ進める操作として受け付ける。例えば、端末装置10は、ユーザが端末装置10の画面の中心よりも右側をシングルタップした場合、端末装置10に表示される電子書籍のページを1ページ戻る操作として受け付ける。   Returning to FIG. 1, the determination process will be described from here. In the example of FIG. 1 and FIG. 2, the terminal device 10 receives a single tap as an operation of changing the page of the electronic book displayed on the terminal device 10. For example, when the user single-taps the left side of the center of the screen of the terminal device 10, the terminal device 10 receives the page of the electronic book displayed on the terminal device 10 as an operation to advance one page. For example, when the user single-taps the right side of the center of the screen of the terminal device 10, the terminal device 10 receives the page of the electronic book displayed on the terminal device 10 as an operation to return one page.

また、例えば、端末装置10は、ユーザが端末装置10の画面をダブルタップした場合、ユーザがダブルタップした位置を中心として拡大表示する操作として受け付ける。また、図1及び図2の例では、端末装置10は、1回目のタップの画面における位置と2回目のタップの画面における位置とが所定の範囲(例えば数ミリメートル等)内である場合に、ユーザの操作がダブルタップであるとして受け付けるものとする。例えば、端末装置10は、1回目のタップにおいてセンサにより検知された画面中の座標と、2回のタップにおいてセンサにより検知された画面中の座標とが所定の範囲内である場合に、ユーザの操作がダブルタップであるとして受け付けるものとする。   In addition, for example, when the user double-taps the screen of the terminal device 10, the terminal device 10 receives an operation to be enlarged and displayed centering on the position where the user double-taps. Further, in the example of FIG. 1 and FIG. 2, when the position of the first tap on the screen and the position of the second tap on the screen are within a predetermined range (for example, several millimeters), It is assumed that the user's operation is accepted as a double tap. For example, when the terminal device 10 detects that the coordinates on the screen detected by the sensor at the first tap and the coordinates on the screen detected by the sensor at two taps are within a predetermined range, Assume that the operation is accepted as a double tap.

例えば、端末装置10は、1回目のタップの画面における位置と2回目のタップの画面における位置とが所定の範囲外である場合に、ユーザの操作が2回のシングルタップであるとして受け付けるものとする。また、例えば、端末装置10は、あるタップ(1回目のタップ)を行った時点から待機期間TM経過後に次のタップ(2回目のタップ)が行われた場合、ユーザの操作が2回のシングルタップであるとして受け付けるものとする。   For example, the terminal device 10 accepts that the user's operation is two single taps when the position on the screen of the first tap and the position on the screen of the second tap are out of a predetermined range. Do. Also, for example, when the terminal device 10 performs the next tap (the second tap) after the standby period TM has elapsed from the time when the certain tap (the first tap) is performed, the user performs a single operation of two times. It shall be accepted as being a tap.

なお、上記の操作は一例であり、種々のユーザ操作に、画面表示の変更等の端末装置10の処理(挙動)が対応付けられてもよい。また、図1や図2においては、日時を「dt11」等の抽象的な符号で図示するが、各日時「dt*(*は任意の数値)」は、具体的な日時であるものとする。例えば、日時dt11は、「2017年9月26日23時28分47秒」等の具体的な日時であってもよい。また、図1及び図2においては、端末装置10の表示やユーザの操作の受け付けに応じて、端末装置10−11、10−12、10−21〜10−23等として説明するが、特に区別して説明を行う場合以外は、単に「端末装置10」とする。   In addition, said operation is an example, and the process (behavior) of the terminal device 10, such as a change of a screen display, may be matched with various user operation. In FIGS. 1 and 2, although the date and time is illustrated by an abstract code such as "dt11", each date and time "dt * (* is any numerical value)" is assumed to be a specific date and time. . For example, the date and time dt11 may be a specific date and time such as "September 26, 2017 23:28:47". Moreover, in FIG.1 and FIG.2, according to the display of the terminal device 10, or reception of a user's operation, although demonstrated as terminal device 10-11, 10-12, 10-21 to 10-23 grade | etc., Unless otherwise described, the term "terminal device 10" is used.

まず、端末装置10−11は、日時dt11において、ユーザU1のタップ操作を受け付ける(ステップS10)。図1の例では、ページPG1を表示している端末装置10は、ユーザU1が指F1により画面の左側を1回タップする操作を受け付ける。なお、図1に示すページPG1やページPG2は、コンテンツCT1(図7参照)に含まれるページであるものとする。   First, the terminal device 10-11 receives the tap operation of the user U1 at the date and time dt11 (step S10). In the example of FIG. 1, the terminal device 10 displaying the page PG1 receives an operation in which the user U1 taps the left side of the screen once with the finger F1. The page PG1 and the page PG2 shown in FIG. 1 are pages included in the content CT1 (see FIG. 7).

これにより、端末装置10−11は、ユーザU1のタップ操作に関するセンサ情報SDT11を取得する。例えば、端末装置10−11は、センサ部16(図4参照)に含まれる各種のセンサにより検知されたセンサ情報を含むセンサ情報SDT11を取得する。   Thereby, the terminal device 10-11 acquires sensor information SDT11 regarding the tap operation of the user U1. For example, the terminal device 10-11 acquires sensor information SDT11 including sensor information detected by various sensors included in the sensor unit 16 (see FIG. 4).

例えば、端末装置10は、圧力センサにより検知された圧力を示す圧力情報を含むセンサ情報SDT11を取得する。例えば、端末装置10は、ユーザU1が画面に接触する圧力を示す圧力情報を含むセンサ情報SDT11を取得する。   For example, the terminal device 10 acquires sensor information SDT11 including pressure information indicating the pressure detected by the pressure sensor. For example, the terminal device 10 acquires sensor information SDT11 including pressure information indicating the pressure at which the user U1 contacts the screen.

例えば、端末装置10は、画面におけるユーザの接触範囲(座標)を検知するセンサにより検知されたユーザが接触する面積(接触面積)を示す面積情報を含むセンサ情報SDT11を取得する。例えば、端末装置10は、ユーザU1による画面の接触面積を示す面積情報を含むセンサ情報SDT11を取得する。   For example, the terminal device 10 acquires sensor information SDT11 including area information indicating an area (contact area) touched by the user detected by a sensor that detects the contact area (coordinates) of the user on the screen. For example, the terminal device 10 acquires sensor information SDT11 including area information indicating the contact area of the screen by the user U1.

例えば、端末装置10は、端末装置10の画面への接触を検知するセンサや計時機能(タイマー)等により検知されたユーザの接触時間を示す時間情報を含むセンサ情報SDT11を取得する。例えば、端末装置10は、ユーザU1が端末装置10の画面への接触から、接触の解除までの時間を示す時間情報を含むセンサ情報SDT11を取得する。   For example, the terminal device 10 acquires sensor information SDT11 including time information indicating a contact time of the user detected by a sensor that detects a touch on the screen of the terminal device 10, a timer function (timer), or the like. For example, the terminal device 10 acquires sensor information SDT11 including time information indicating the time from the touch of the user U1 on the screen of the terminal device 10 to the release of the touch.

例えば、端末装置10は、上記に限らず、加速度センサ等の種々のセンサにより検知されたセンサ情報を含むセンサ情報SDT11を取得してもよい。   For example, the terminal device 10 may acquire sensor information SDT11 including not only the above but sensor information detected by various sensors such as an acceleration sensor.

センサ情報SDT11を取得した端末装置10−11は、センサ情報SDT11をモデルに入力する。例えば、端末装置10は、センサ情報SDT11を、モデルM1に入力する。なお、図1に示すモデルM1は、ユーザが行ったタップ操作の後に続けて次のタップ操作が行われるかを判定対象とするモデルである。すなわち、モデルM1は、ユーザが行ったタップ操作に関するセンサ情報が入力されると、そのセンサ情報に対応するユーザのタップ操作の後に続けて次のタップ操作が行われるかの判定に用いられるモデルである。   The terminal device 10-11 that has acquired the sensor information SDT11 inputs the sensor information SDT11 to the model. For example, the terminal device 10 inputs the sensor information SDT11 to the model M1. The model M1 illustrated in FIG. 1 is a model that is determined to be whether the next tap operation is performed subsequently to the tap operation performed by the user. That is, the model M1 is a model used for determining whether the next tap operation is performed after the user's tap operation corresponding to the sensor information when the sensor information on the tap operation performed by the user is input. is there.

また、モデルM1が出力するスコアが高い程、センサ情報に対応するユーザのタップ操作の後に続けて次のタップ操作が行われる可能性が高いことを示す。すなわち、モデルM1が出力するスコアが高い程、センサ情報に対応するユーザのタップ操作がダブルタップの1回目のタップである可能性が高いことを示す。また、モデルM1が出力するスコアが低い程、センサ情報に対応するユーザのタップ操作がシングルタップである可能性が高いことを示す。図1の例では、閾値を「0.6」である場合を示し、端末装置10は、モデルM1が出力するスコアが閾値「0.6」以上である場合、センサ情報に対応するユーザのタップ操作がダブルタップの1回目のタップであると判定する。また、端末装置10は、モデルM1が出力するスコアが閾値「0.6」未満である場合、センサ情報に対応するユーザのタップ操作がシングルタップであると判定する。   Also, it indicates that the higher the score output by the model M1, the higher the possibility that the next tap operation will be performed following the user's tap operation corresponding to the sensor information. That is, it indicates that the higher the score output from the model M1, the higher the possibility that the user's tap operation corresponding to the sensor information is the first double tap. Further, the lower the score output by the model M1, the higher the possibility that the user's tap operation corresponding to the sensor information is a single tap. In the example of FIG. 1, the case where the threshold value is "0.6" is shown, and when the score output by the model M1 is equal to or more than the threshold value "0.6", the terminal device 10 taps the user corresponding to the sensor information It is determined that the operation is the first tap of the double tap. In addition, when the score output by the model M1 is less than the threshold value “0.6”, the terminal device 10 determines that the tap operation of the user corresponding to the sensor information is a single tap.

図1の例では、端末装置10は、処理群PS11に示すような処理により、日時dt11にユーザU1により行われたタップ操作がシングルタップかダブルタップの1回目のタップであるかの可能性を示すスコアを算出する。端末装置10は、センサ情報SDT11をモデルM1に入力する(ステップS11)。具体的には、端末装置10は、日時dt11にユーザU1により行われたタップ操作に関する圧力情報や面積情報や時間情報等を含むセンサ情報SDT11をモデルM1に入力する。ユーザ情報UDT1が入力されたモデルM1は、スコアを出力する(ステップS12)。図1の例では、センサ情報SDT11が入力されたモデルM1は、スコアSC11に示すようなスコア「0.2」を出力する。   In the example of FIG. 1, the terminal device 10 performs the processing as shown in the processing group PS11 to determine whether the tap operation performed by the user U1 at the date and time dt11 is the first tap of a single tap or a double tap. Calculate the indicated score. The terminal device 10 inputs the sensor information SDT11 to the model M1 (step S11). Specifically, the terminal device 10 inputs, to the model M1, sensor information SDT11 including pressure information, area information, time information, and the like related to the tap operation performed by the user U1 at the date and time dt11. The model M1 to which the user information UDT1 has been input outputs a score (step S12). In the example of FIG. 1, the model M1 to which the sensor information SDT11 is input outputs a score “0.2” as indicated by the score SC11.

そして、端末装置10は、センサ情報SDT11が入力されたモデルM1が出力したスコアに基づいて、センサ情報SDT11に対応するユーザのタップ操作の後に続けて次のタップ操作が行われるかを判定する(ステップS13)。図1の例では、端末装置10は、センサ情報SDT11が入力されたモデルM1が出力したスコア「0.2」に基づいて、結果情報RS11に示すように判定する。具体的には、端末装置10は、モデルM1が出力したスコア「0.2」であり閾値「0.6」未満であるため、日時dt11におけるユーザのタップ操作の後に続けて次のタップは無いと判定する。すなわち、端末装置10は、モデルM1が出力したスコア「0.2」であり閾値「0.6」未満であるため、日時dt11におけるユーザのタップ操作はシングルタップであると判定する。   Then, the terminal device 10 determines whether the next tap operation is to be performed subsequently to the tap operation of the user corresponding to the sensor information SDT11 based on the score output by the model M1 to which the sensor information SDT11 is input ( Step S13). In the example of FIG. 1, the terminal device 10 determines as shown in the result information RS11 based on the score "0.2" output by the model M1 to which the sensor information SDT11 is input. Specifically, since the terminal device 10 has a score “0.2” output by the model M1 and is less than the threshold “0.6”, there is no next tap after the user's tap operation at the date and time dt11 It is determined that That is, since the terminal device 10 is the score “0.2” output by the model M1 and less than the threshold “0.6”, the terminal device 10 determines that the tap operation by the user at the date dt11 is a single tap.

そして、端末装置10は、判定結果に応じて画面の表示を変更する(ステップS14)。図1の例では、端末装置10は、日時dt11におけるユーザのタップ操作はシングルタップであると判定したため、画面の表示をページPG1の次にページPG2を表示するように変更する。これにより、端末装置10は、日時dt12において、端末装置10−12に示すように、画面にページPG2を表示する。   Then, the terminal device 10 changes the display of the screen according to the determination result (step S14). In the example of FIG. 1, since the terminal device 10 determines that the tap operation of the user at the date and time dt11 is a single tap, the display of the screen is changed to display the page PG2 next to the page PG1. Thereby, the terminal device 10 displays the page PG2 on the screen at the date and time dt12 as shown in the terminal device 10-12.

このように、端末装置10は、センサ情報SDT11に対応するタップ操作が行われた日時dt11の時点で、そのタップ操作の後に続けて次のタップ操作が行われるかを判定する。すなわち、端末装置10は、センサ情報SDT11に対応するタップ操作が行われたタイミングで、そのタップ操作の後に続けて次のタップ操作が行われるかを判定する。このように、端末装置10は、センサ情報SDT11に対応するタップ操作が行われたタイミングで、そのタップ操作が完結した操作(シングルタップ)であるか、次の操作が行われる操作なのかを判定する。そのため、端末装置10は、ユーザの操作がシングルタップであると判定した場合、待機期間TMの経過を待つことなく、ユーザのシングルタップの操作に応じて画面の表示を変更する。図1の例では、端末装置10は、日時dt11から待機期間TMが経過した日時dt15よりも前の日時dt12において、端末装置10−12に示すように、画面にページPG2を表示することができる。これにより、端末装置10は、シングルタップの操作を行ったユーザU1に、待機期間TMの経過を待つことを強いることなく、ユーザU1が望むページの表示を行うことができる。また、端末装置10は、ユーザが待機期間TM内に連続してシングルタップの操作を行った場合であっても、センサ情報に基づいて判定することにより、各タップ(シングルタップ)の操作をシングルタップの操作として、対応する処理を行うことができる。したがって、端末装置10は、ユーザが連続でシングルタップしたい場合に、判定システム1(端末装置10)側でダブルタップだと判定することによる、誤判定を抑制することができる。これにより、端末装置10は、ユーザの操作性の向上を可能にすることができる。すなわち、端末装置10は、ユーザビリティの向上を可能にすることができる。   Thus, the terminal device 10 determines whether the next tap operation is to be performed following the tap operation at the time of the date and time dt11 at which the tap operation corresponding to the sensor information SDT11 is performed. That is, at the timing when the tap operation corresponding to the sensor information SDT 11 is performed, the terminal device 10 determines whether the next tap operation is performed subsequently to the tap operation. As described above, the terminal device 10 determines, at the timing when the tap operation corresponding to the sensor information SDT11 is performed, whether the operation is the one where the tap operation is completed (single tap) or the operation where the next operation is performed. Do. Therefore, when the terminal device 10 determines that the user operation is a single tap, the terminal device 10 changes the display of the screen according to the user's single tap operation without waiting for the elapse of the standby period TM. In the example of FIG. 1, the terminal device 10 can display the page PG2 on the screen as shown in the terminal device 10-12 at the date and time dt12 before the date and time dt15 when the standby period TM has elapsed from the date and time dt11. . As a result, the terminal device 10 can display the page desired by the user U1 without forcing the user U1 who has performed the single-tap operation to wait for the elapse of the standby period TM. In addition, even when the user operates the single tap continuously in the standby period TM, the terminal device 10 determines the operation of each tap (single tap) by determining based on the sensor information. A corresponding process can be performed as the tap operation. Therefore, the terminal device 10 can suppress an erroneous determination due to the determination system 1 (terminal device 10) side determining that it is a double tap when the user wants to continuously single tap. Thereby, the terminal device 10 can enable improvement of the operability of the user. That is, the terminal device 10 can enable improvement in usability.

また、端末装置10−21は、日時dt21において、ユーザU1のタップ操作を受け付ける(ステップS20)。図1の例では、ページPG1を表示している端末装置10−21は、ユーザU1が指F1により画面の左側を1回タップする操作を受け付ける。   The terminal device 10-21 receives the tap operation of the user U1 at the date and time dt 21 (step S20). In the example of FIG. 1, the terminal device 10-21 displaying the page PG <b> 1 receives an operation in which the user U <b> 1 taps the left side of the screen once with the finger F <b> 1.

これにより、端末装置10−21は、ユーザU1のタップ操作に関するセンサ情報SDT21を取得する。例えば、端末装置10は、センサ部16(図4参照)に含まれる各種のセンサにより検知されたセンサ情報を含むセンサ情報SDT21を取得する。例えば、端末装置10は、圧力情報や面積情報や時間情報を含むセンサ情報SDT21を取得する。   Thereby, the terminal device 10-21 acquires sensor information SDT21 regarding the tap operation of the user U1. For example, the terminal device 10 acquires sensor information SDT 21 including sensor information detected by various sensors included in the sensor unit 16 (see FIG. 4). For example, the terminal device 10 acquires sensor information SDT 21 including pressure information, area information, and time information.

センサ情報SDT21を取得した端末装置10−21は、センサ情報SDT21をモデルに入力する。例えば、端末装置10は、センサ情報SDT21を、モデルM1に入力する。   The terminal device 10-21 that has acquired the sensor information SDT21 inputs the sensor information SDT21 to the model. For example, the terminal device 10 inputs the sensor information SDT21 to the model M1.

図1の例では、端末装置10は、処理群PS21に示すような処理により、日時dt21にユーザU1により行われたタップ操作がシングルタップかダブルタップの1回目のタップであるかの可能性を示すスコアを算出する。端末装置10は、センサ情報SDT21をモデルM1に入力する(ステップS21)。具体的には、端末装置10は、日時dt21にユーザU1により行われたタップ操作に関する圧力情報や面積情報や時間情報等を含むセンサ情報SDT21をモデルM1に入力する。ユーザ情報UDT1が入力されたモデルM1は、スコアを出力する(ステップS22)。図1の例では、センサ情報SDT21が入力されたモデルM1は、スコアSC11に示すようなスコア「0.7」を出力する。   In the example of FIG. 1, the terminal device 10 performs the processing as shown in the processing group PS21 to determine whether the tap operation performed by the user U1 at the date and time dt21 is the first tap of a single tap or a double tap. Calculate the indicated score. The terminal device 10 inputs the sensor information SDT21 to the model M1 (step S21). Specifically, the terminal device 10 inputs, to the model M1, sensor information SDT21 including pressure information, area information, time information, and the like related to the tap operation performed by the user U1 at the date and time dt21. The model M1 to which the user information UDT1 has been input outputs a score (step S22). In the example of FIG. 1, the model M1 to which the sensor information SDT21 is input outputs a score “0.7” as indicated by the score SC11.

そして、端末装置10は、センサ情報SDT21が入力されたモデルM1が出力したスコアに基づいて、センサ情報SDT21に対応するユーザのタップ操作の後に続けて次のタップ操作が行われるかを判定する(ステップS23)。図1の例では、端末装置10は、センサ情報SDT21が入力されたモデルM1が出力したスコア「0.7」に基づいて、結果情報RS21に示すように判定する。具体的には、端末装置10は、モデルM1が出力したスコア「0.7」であり閾値「0.6」以上であるため、日時dt21におけるユーザのタップ操作の後に続けて次のタップが有ると判定する。すなわち、端末装置10は、モデルM1が出力したスコア「0.7」であり閾値「0.6」以上であるため、日時dt21におけるユーザのタップ操作はダブルタップの1回目のタップである可能性が高いと判定する。   Then, the terminal device 10 determines whether the next tap operation is to be performed subsequently to the tap operation of the user corresponding to the sensor information SDT 21 based on the score output from the model M1 to which the sensor information SDT 21 is input ( Step S23). In the example of FIG. 1, the terminal device 10 determines as shown in the result information RS21 based on the score "0.7" output by the model M1 to which the sensor information SDT21 is input. Specifically, since the terminal device 10 is the score “0.7” output by the model M1 and is equal to or more than the threshold value “0.6”, there is a next tap following the tap operation of the user at the date and time dt21. It is determined that That is, since the terminal device 10 is the score “0.7” output by the model M1 and is equal to or more than the threshold value “0.6”, the user's tap operation at the date and time dt21 may be the first double tap Is determined to be high.

そのため、端末装置10は、日時dt21から待機期間TMが経過するまで、ダブルタップの2回目のタップが行われるのを待つ。図1の例では、端末装置10は、日時dt21から日時dt25までの間、ダブルタップの2回目のタップが行われるのを待つ。   Therefore, the terminal device 10 waits for the second tap of the double tap to be performed until the standby period TM elapses from the date and time dt21. In the example of FIG. 1, the terminal apparatus 10 waits for the second tap of the double tap to be performed between the date and time dt21 and the date and time dt25.

そして、端末装置10−22は、日時dt21よりも後であり日時dt25よりも前の日時dt22において、ユーザU1のタップ操作を受け付ける(ステップS24)。図1の例では、ページPG1を表示している端末装置10−22は、ユーザU1が指F1により画面の左側を再度1回タップする操作を受け付ける。図1の例では、端末装置10−22は、日時dt21においてタップした位置から所定の範囲内の位置をユーザU1が1回タップする操作を受け付ける。そのため、端末装置10は、日時dt21のタップ操作と、日時dt22のタップ操作とにより、ユーザU1によるダブルタップが行われたと判定する。   Then, the terminal device 10-22 receives the tap operation of the user U1 at the date and time dt22 later than the date and time dt21 and before the date and time dt25 (step S24). In the example of FIG. 1, the terminal device 10-22 displaying the page PG1 receives an operation in which the user U1 taps the left side of the screen once again with the finger F1. In the example of FIG. 1, the terminal device 10-22 receives an operation in which the user U1 taps a position within a predetermined range from the position tapped at the date dt 21 once. Therefore, the terminal device 10 determines that the double tap by the user U1 is performed by the tap operation of the date dt21 and the tap operation of the date dt22.

そして、端末装置10は、判定結果に応じて画面の表示を変更する(ステップS25)。図1の例では、端末装置10は、日時dt21のタップ操作と、日時dt22のタップ操作とは、ダブルタップであると判定したため、画面の表示をページPG1において、ユーザU1がダブルタップした位置を中心として拡大表示するように変更する。これにより、端末装置10は、日時dt23において、端末装置10−23に示すように、ユーザU1がダブルタップした位置付近(ページPG1の左下側)を拡大表示する。   Then, the terminal device 10 changes the display of the screen according to the determination result (step S25). In the example of FIG. 1, the terminal device 10 determines that the tap operation of the date dt 21 and the tap operation of the date dt 22 are double taps, so the display of the screen is the page PG 1 where the user U 1 double taps Change to zoom in as the center. As a result, as shown in the terminal device 10-23, the terminal device 10 enlarges and displays the vicinity of the position where the user U1 double-taped (the lower left side of the page PG1) at the date and time dt23.

このように、端末装置10は、ユーザの操作がダブルタップの1回目である可能性が高いと判定した場合、ダブルタップの2回目のタップ操作を待機期間TMの間を待つ。そして、端末装置10は、待機期間TM内にユーザの操作が2回目のタップ操作を行った場合、ダブルタップに対応する画面の表示に変更する。これにより、端末装置10は、ユーザの操作がダブルタップである可能性が高い場合、待機期間TMの間、次のタップ操作を待つことにより、ユーザによるダブルタップの操作を適切に受け付けることができる。   As described above, when the terminal device 10 determines that the user's operation is highly likely to be the first double tap, the terminal device 10 waits for the second tap operation of the double tap during the standby period TM. Then, when the user operation performs a second tap operation within the standby period TM, the terminal device 10 changes the display to a screen corresponding to the double tap. Thereby, when there is a high possibility that the user's operation is a double tap, the terminal device 10 can appropriately receive the double tap operation by the user by waiting for the next tap operation during the standby period TM. .

また、端末装置10は、待機期間TM内にユーザの操作が2回目のタップ操作が行われなかった場合、ユーザのタップ操作をシングルタップとして、シングルタップに対応する画面の表示に変更する。このように、端末装置10は、待機期間TMを待つ場合であっても、待機期間TM内にユーザの操作が2回目のタップ操作が行われなかった場合、ユーザのタップ操作をシングルタップとして、シングルタップに対応する画面の表示に変更する。このように、端末装置10は、誤操作としてユーザの操作に対応する処理を行わないのではなく、シングルタップかダブルタップのいずれかとして処理を行うことが可能となる。これにより、端末装置10は、ユーザに何度も操作を行わせることを抑制することが可能となる。したがって、端末装置10は、ユーザの操作性の向上を可能にすることができる。   In addition, when the second tap operation of the user is not performed within the standby period TM, the terminal device 10 changes the tap operation of the user to a single tap and displays the screen corresponding to the single tap. As described above, even when the terminal device 10 waits for the standby period TM, if the user does not perform the second tap operation within the standby period TM, the terminal device 10 uses the user's tap operation as a single tap. Change to display of screen corresponding to single tap. Thus, the terminal device 10 can perform processing as either a single tap or a double tap instead of not performing processing corresponding to the user's operation as an erroneous operation. Thereby, the terminal device 10 can suppress the user from performing the operation many times. Therefore, the terminal device 10 can enable improvement of the operability of the user.

〔1−1.生成処理〕
次に、図2を用いて、実施形態に係る生成処理の一例について説明する。図2は、実施形態に係る生成処理の一例を示す図である。図2では、端末装置10の画面に対するユーザの所定の操作に関するセンサ情報と正解情報とを含む学習データに基づいてモデルの生成を行う場合を示す。図2の例では、端末装置10は、端末装置10の画面に対するユーザのタップ操作に関するセンサ情報と、そのタップ操作がシングルタップかダブルタップの1回目のタップであったかを示す正解情報とを含む学習データに基づいてモデルの生成を行う場合を示す。このように、正解情報が対応付けられたセンサ情報を「学習データ」ともいう。
[1-1. Generation process]
Next, an example of the generation process according to the embodiment will be described with reference to FIG. FIG. 2 is a diagram illustrating an example of a generation process according to the embodiment. FIG. 2 shows a case where a model is generated based on learning data including sensor information and correct answer information regarding a predetermined operation of the user on the screen of the terminal device 10. In the example of FIG. 2, the terminal device 10 learns including sensor information on the tap operation of the user on the screen of the terminal device 10 and correct answer information indicating whether the tap operation is a single tap or a double tap first tap. The case of generating a model based on data is shown. As described above, sensor information associated with correct answer information is also referred to as “learning data”.

まず、図2の示す例において、モデルの生成に用いるデータ(学習データ)を収集する場合を説明する。まず、端末装置10−31は、日時dt31において、ユーザU1のタップ操作を受け付ける(ステップS30)。図2の例では、ページPG31を表示している端末装置10は、ユーザU1が指F1により画面の左側を1回タップする操作を受け付ける。そして、端末装置10−31は、ユーザU1のタップ操作に関するセンサ情報SDT101を取得する。例えば、端末装置10−31は、センサ部16(図4参照)に含まれる各種のセンサにより検知されたセンサ情報を含むセンサ情報SDT101を取得する。   First, in the example shown in FIG. 2, a case of collecting data (learning data) used to generate a model will be described. First, the terminal device 10-31 receives the tap operation of the user U1 at the date and time dt31 (step S30). In the example of FIG. 2, the terminal device 10 displaying the page PG31 receives an operation in which the user U1 taps the left side of the screen once with the finger F1. Then, the terminal device 10-31 acquires sensor information SDT 101 related to the tap operation of the user U1. For example, the terminal device 10-31 acquires sensor information SDT 101 including sensor information detected by various sensors included in the sensor unit 16 (see FIG. 4).

例えば、端末装置10は、圧力センサにより検知された圧力を示す圧力情報を含むセンサ情報SDT101を取得する。例えば、端末装置10は、ユーザU1が画面に接触する圧力を示す圧力情報を含むセンサ情報SDT101を取得する。   For example, the terminal device 10 acquires sensor information SDT 101 including pressure information indicating the pressure detected by the pressure sensor. For example, the terminal device 10 acquires sensor information SDT 101 including pressure information indicating the pressure with which the user U 1 contacts the screen.

例えば、端末装置10は、画面におけるユーザの接触範囲(座標)を検知するセンサにより検知されたユーザが接触する面積(接触面積)を示す面積情報を含むセンサ情報SDT101を取得する。例えば、端末装置10は、ユーザU1による画面の接触面積を示す面積情報を含むセンサ情報SDT101を取得する。   For example, the terminal device 10 acquires sensor information SDT 101 including area information indicating an area (contact area) touched by the user detected by a sensor that detects the contact area (coordinates) of the user on the screen. For example, the terminal device 10 acquires sensor information SDT 101 including area information indicating the contact area of the screen by the user U1.

例えば、端末装置10は、端末装置10の画面への接触を検知するセンサや計時機能(タイマー)等により検知されたユーザの接触時間を示す時間情報を含むセンサ情報SDT101を取得する。例えば、端末装置10は、ユーザU1が端末装置10の画面への接触から、接触の解除までの時間を示す時間情報を含むセンサ情報SDT101を取得する。   For example, the terminal device 10 acquires sensor information SDT 101 including time information indicating a contact time of the user detected by a sensor that detects a touch on the screen of the terminal device 10, a timer function (timer), or the like. For example, the terminal device 10 acquires sensor information SDT 101 including time information indicating the time from the touch of the user U1 on the screen of the terminal device 10 to the release of the touch.

例えば、端末装置10は、上記に限らず、加速度センサ等の種々のセンサにより検知されたセンサ情報を含むセンサ情報SDT101を取得してもよい。   For example, the terminal device 10 may acquire sensor information SDT 101 including sensor information detected by various sensors such as an acceleration sensor as well as the above.

そして、図2の例では、端末装置10は、日時dt31から待機期間TMが経過した日時dt35までの間において、2回目のタップ操作を受付けていない(ステップS31)。そのため、端末装置10は、センサ情報SDT101に対応するユーザU1のタップ操作をシングルタップと判定する。そして、端末装置10は、センサ情報SDT101に対応するタップ操作がシングルタップであることを示す正解情報RDT101を、センサ情報SDT101に対応づける。すなわち、端末装置10は、センサ情報SDT101に対応するタップ操作には次のタップ操作が無いことを示す正解情報RDT101を、センサ情報SDT101に対応づける。   Then, in the example of FIG. 2, the terminal device 10 does not receive the second tap operation from the date dt 31 to the date dt 35 when the standby period TM has elapsed (step S 31). Therefore, the terminal device 10 determines that the tap operation of the user U1 corresponding to the sensor information SDT 101 is a single tap. Then, the terminal device 10 associates the correct answer information RDT101 indicating that the tap operation corresponding to the sensor information SDT101 is a single tap with the sensor information SDT101. That is, the terminal device 10 associates the correct answer information RDT 101 indicating that there is no next tap operation in the tap operation corresponding to the sensor information SDT 101 with the sensor information SDT 101.

また、端末装置10−41は、日時dt41において、ユーザU1のタップ操作を受け付ける(ステップS40)。図2の例では、ページPG41を表示している端末装置10は、ユーザU1が指F1により画面の右側を1回タップする操作を受け付ける。そして、端末装置10−41は、ユーザU1のタップ操作に関するセンサ情報SDT102を取得する。例えば、端末装置10−41は、センサ部16(図4参照)に含まれる各種のセンサにより検知されたセンサ情報を含むセンサ情報SDT102を取得する。例えば、端末装置10は、圧力情報や面積情報や時間情報を含むセンサ情報SDT102を取得する。   The terminal device 10-41 receives the tap operation of the user U1 at the date and time dt 41 (step S40). In the example of FIG. 2, the terminal device 10 displaying the page PG41 receives an operation in which the user U1 taps the right side of the screen once with the finger F1. And the terminal device 10-41 acquires sensor information SDT102 regarding tap operation of the user U1. For example, the terminal device 10-41 acquires sensor information SDT 102 including sensor information detected by various sensors included in the sensor unit 16 (see FIG. 4). For example, the terminal device 10 acquires sensor information SDT 102 including pressure information, area information, and time information.

そして、端末装置10−42は、日時dt41よりも後であり日時dt45よりも前の日時dt42において、ユーザU1のタップ操作を受け付ける(ステップS41)。図2の例では、端末装置10−42は、ユーザU1が指F1により日時dt41においてタップした位置の近傍を再度1回タップする操作を受け付ける。図1の例では、端末装置10−42は、日時dt41においてタップした位置から所定の範囲内の位置をユーザU1が1回タップする操作を受け付ける。そのため、端末装置10は、日時dt41のタップ操作と、日時dt42のタップ操作とにより、ユーザU1によるダブルタップが行われたと判定する。   Then, the terminal device 10-42 receives the tap operation of the user U1 at the date and time dt42 which is later than the date and time dt41 and which is earlier than the date and time dt45 (step S41). In the example of FIG. 2, the terminal device 10-42 receives an operation of tapping once again the vicinity of the position where the user U 1 taps with the finger F 1 at the date dt 41. In the example of FIG. 1, the terminal device 10-42 receives an operation in which the user U1 taps a position within a predetermined range from the position tapped at the date dt 41 once. Therefore, the terminal device 10 determines that the double tap by the user U1 is performed by the tap operation of the date and time dt41 and the tap operation of the date and time dt42.

そのため、端末装置10は、センサ情報SDT102に対応するユーザU1のタップ操作をダブルタップの1回目のタップであると判定する。そして、端末装置10は、センサ情報SDT102に対応するタップ操作がダブルタップの1回目のタップであることを示す正解情報RDT102を、センサ情報SDT102に対応づける。すなわち、端末装置10は、センサ情報SDT102に対応するタップ操作には次のタップ操作が有ることを示す正解情報RDT102を、センサ情報SDT102に対応づける。   Therefore, the terminal device 10 determines that the tap operation of the user U1 corresponding to the sensor information SDT 102 is the first tap of the double tap. Then, the terminal device 10 associates the correct answer information RDT 102 indicating that the tap operation corresponding to the sensor information SDT 102 is the first tap of the double tap with the sensor information SDT 102. That is, the terminal device 10 associates the correct answer information RDT 102 indicating that the tap operation corresponding to the sensor information SDT 102 has the next tap operation with the sensor information SDT 102.

また、端末装置10−51は、日時dt51において、ユーザU1のタップ操作を受け付ける(ステップS50)。図2の例では、ページPG51を表示している端末装置10は、ユーザU1が指F1により画面の右側を1回タップする操作を受け付ける。そして、端末装置10−51は、ユーザU1のタップ操作に関するセンサ情報SDT103を取得する。例えば、端末装置10−51は、センサ部16(図4参照)に含まれる各種のセンサにより検知されたセンサ情報を含むセンサ情報SDT103を取得する。例えば、端末装置10は、圧力情報や面積情報や時間情報を含むセンサ情報SDT103を取得する。   The terminal device 10-51 receives the tap operation of the user U1 at the date and time dt 51 (step S50). In the example of FIG. 2, the terminal device 10 displaying the page PG51 receives an operation in which the user U1 taps the right side of the screen once with the finger F1. Then, the terminal device 10-51 acquires sensor information SDT 103 related to the tap operation of the user U1. For example, the terminal device 10-51 acquires sensor information SDT 103 including sensor information detected by various sensors included in the sensor unit 16 (see FIG. 4). For example, the terminal device 10 acquires sensor information SDT 103 including pressure information, area information, and time information.

そして、端末装置10−52は、日時dt51よりも後であり日時dt55よりも前の日時dt52において、ユーザU1のタップ操作を受け付ける(ステップS51)。図2の例では、端末装置10−52は、ユーザU1が指F1により日時dt51においてタップした位置の遠隔を1回タップする操作を受け付ける。図1の例では、端末装置10−52は、日時dt51においてタップした位置から所定の範囲外の位置をユーザU1が1回タップする操作を受け付ける。そのため、端末装置10は、日時dt51のタップ操作と、日時dt52のタップ操作とを、各々異なるユーザU1によるシングルタップと判定する。   Then, the terminal device 10-52 receives the tap operation of the user U1 at the date and time dt52 which is later than the date and time dt51 and which is earlier than the date and time dt55 (step S51). In the example of FIG. 2, the terminal device 10-52 receives an operation of tapping once the distance of the position where the user U 1 tapped at the date dt 51 with the finger F 1. In the example of FIG. 1, the terminal device 10-52 receives an operation in which the user U1 taps a position outside the predetermined range from the position tapped at the date dt 51 once. Therefore, the terminal device 10 determines that the tap operation of the date dt 51 and the tap operation of the date dt 52 are single taps by different users U1.

そのため、端末装置10は、センサ情報SDT103に対応するユーザU1のタップ操作をシングルタップであると判定する。そして、端末装置10は、センサ情報SDT103に対応するタップ操作がシングルタップであることを示す正解情報RDT103を、センサ情報SDT103に対応づける。すなわち、端末装置10は、センサ情報SDT103に対応するタップ操作には次のタップ操作が無いことを示す正解情報RDT103を、センサ情報SDT103に対応づける。なお、端末装置10は、日時dt52におけるタップ操作に関するセンサ情報もシングルに対応するセンサ情報として、学習データに追加してもよい。   Therefore, the terminal device 10 determines that the tap operation of the user U1 corresponding to the sensor information SDT 103 is a single tap. Then, the terminal device 10 associates the correct answer information RDT 103 indicating that the tap operation corresponding to the sensor information SDT 103 is a single tap with the sensor information SDT 103. That is, the terminal device 10 associates the correct answer information RDT 103 indicating that the tap operation corresponding to the sensor information SDT 103 does not have the next tap operation with the sensor information SDT 103. The terminal device 10 may add sensor information related to the tap operation at the date and time dt 52 to the learning data as sensor information corresponding to a single.

また、端末装置10は、学習データLD1を取得する(ステップS61)。例えば、端末装置10は、データDT101〜DT104等を含む学習データLD1を取得する。例えば、端末装置10は、センサ情報SDT101に正解情報RDT101が対応付けられたデータDT101を取得する。例えば、端末装置10は、センサ情報SDT102に正解情報RDT102が対応付けられたデータDT102を取得する。なお、図2の例では、端末装置10は、上記のような学習データLD1を所定の外部情報処理装置から取得してもよい。なお、上記のように、「データDT*(*は任意の数値)」と記載した場合、そのデータはデータID「DT*」により識別されるデータであることを示す。例えば、「データDT1」と記載した場合、そのデータはデータID「DT1」により識別されるデータである。   Further, the terminal device 10 acquires the learning data LD1 (step S61). For example, the terminal device 10 acquires learning data LD1 including data DT101 to DT104 and the like. For example, the terminal device 10 acquires data DT101 in which the correct answer information RDT101 is associated with the sensor information SDT101. For example, the terminal device 10 acquires data DT102 in which the correct answer information RDT102 is associated with the sensor information SDT102. In the example of FIG. 2, the terminal device 10 may acquire the learning data LD1 as described above from a predetermined external information processing device. As described above, when “data DT * (* is any numerical value)” is described, it indicates that the data is data identified by the data ID “DT *”. For example, when "data DT1" is described, the data is data identified by data ID "DT1".

そして、端末装置10は、ステップS21で取得した学習データLD1に含まれる正解情報とユーザ情報との組み合わせを学習データとして追加する(ステップS62)。具体的には、端末装置10は、学習データLD1を学習データ記憶部141に追加する。図2の例では、端末装置10は、ユーザU1がタップ操作を行った際のセンサ情報SDT101と、そのセンサ情報SDT101に対応するタップ操作がシングルタップであることを示す正解情報RDT101を含むデータDT101等を学習データ記憶部141に追加する。   Then, the terminal device 10 adds, as learning data, a combination of correct answer information and user information included in the learning data LD1 acquired in step S21 (step S62). Specifically, the terminal device 10 adds the learning data LD1 to the learning data storage unit 141. In the example of FIG. 2, the terminal device 10 includes the sensor information SDT 101 when the user U 1 performs the tap operation, and data DT 101 including the correct answer information RDT 101 indicating that the tap operation corresponding to the sensor information SDT 101 is a single tap. Etc. are added to the learning data storage unit 141.

そして、端末装置10は、学習データに基づいてモデルを生成する(ステップS63)。図2の例では、端末装置10は、モデル情報記憶部142に示すように、モデルM1〜M3等を生成する。上記のように、「モデルM*(*は任意の数値)」と記載した場合、そのモデルはモデルID「M*」により識別されるモデルであることを示す。例えば、「モデルM1」と記載した場合、そのモデルはモデルID「M1」により識別されるモデルである。   Then, the terminal device 10 generates a model based on the learning data (step S63). In the example of FIG. 2, as shown in the model information storage unit 142, the terminal device 10 generates models M1 to M3 and the like. As described above, when “model M * (* is any numerical value)” is described, it indicates that the model is a model identified by model ID “M *”. For example, when "model M1" is described, the model is a model identified by model ID "M1".

図2中のモデル情報記憶部142に示すように、モデルM1は対象となる判定対象が「次のタップ(2回目のタップ)」であることを示す。すなわち、モデルM1は、端末装置10の画面に対するユーザのタップ操作に関するセンサ情報が入力された場合に、そのタップ操作に続けて次のタップ操作が行われるかの判定に用いられることを示す。また、モデルM1のモデルデータは、モデルデータMDT1であることを示す。   As shown in the model information storage unit 142 in FIG. 2, the model M1 indicates that the target to be determined is “next tap (second tap)”. That is, the model M1 indicates that, when sensor information related to the tap operation of the user on the screen of the terminal device 10 is input, the model M1 is used for determining whether the next tap operation is performed following the tap operation. Further, model data of the model M1 indicates that it is model data MDT1.

例えば、端末装置10は、学習データ記憶部141中のデータDT101〜DT104等を学習データ(教師データ)として、学習を行なうことにより、モデルを生成する。例えば、端末装置10は、ユーザのタップ操作に対応するセンサ情報に関する特徴量を用いて、モデルを生成する。例えば、端末装置10は、圧力情報や面積情報や時間情報に関する特徴量を用いて、モデルを生成する。このように、端末装置10は、ユーザのタップ操作に対応する特徴を学習し、そのタップ操作に続けて次のタップ操作が行われるかを判定するモデルを生成する。図2の例では、端末装置10は、ユーザのタップ操作での圧力情報や面積情報や時間情報等に関する特徴を学習し、そのタップ操作に続けて次のタップ操作が行われるかを判定するモデルを生成する。なお、端末装置10が学習するユーザに対応する特徴は、端末装置10の管理者等の人間が端末装置10に入力してもよいし、端末装置10に自動的に学習(抽出)させてもよい。   For example, the terminal device 10 generates a model by performing learning with the data DT101 to DT104 and the like in the learning data storage unit 141 as learning data (teacher data). For example, the terminal device 10 generates a model using the feature amount related to sensor information corresponding to the tap operation of the user. For example, the terminal device 10 generates a model using feature information related to pressure information, area information, and time information. Thus, the terminal device 10 learns the feature corresponding to the tap operation of the user, and generates a model that determines whether the next tap operation is performed following the tap operation. In the example of FIG. 2, the terminal device 10 learns features related to pressure information, area information, time information, and the like in the tap operation of the user, and determines a model that determines whether the next tap operation is performed following the tap operation. Generate The feature corresponding to the user that the terminal device 10 learns may be input to the terminal device 10 by a person such as an administrator of the terminal device 10, or may be automatically learned (extracted) by the terminal device 10. Good.

例えば、端末装置10は、学習データLD1を用いてモデルM1を生成する。例えば、端末装置10は、正解情報RDT101が次のタップ操作が無いこと、すなわちタップ操作がシングルタップであることを示す場合、モデルM1にデータDT101に含まれるセンサ情報が入力された場合に、モデルM1が出力するスコアが「0」に近づくように、学習処理を行う。例えば、端末装置10は、データDT101のセンサ情報SDT101がモデルM1に入力された場合に、モデルM1が出力するスコアが「0」に近づくように、学習処理を行う。   For example, the terminal device 10 generates a model M1 using the learning data LD1. For example, when the terminal device 10 indicates that the correct answer information RDT 101 does not have the next tap operation, that is, the tap operation is a single tap, the sensor information included in the data DT 101 is input to the model M 1. The learning process is performed so that the score output by M1 approaches “0”. For example, when the sensor information SDT 101 of the data DT 101 is input to the model M1, the terminal device 10 performs learning processing so that the score output by the model M1 approaches “0”.

また、例えば、端末装置10は、正解情報RDT102が次のタップ操作が有ること、すなわちタップ操作がダブルタップの1回目のタップであることを示す場合、モデルM1にデータDT102に含まれるセンサ情報が入力された場合に、モデルM1が出力するスコアが「1」に近づくように、学習処理を行う。例えば、端末装置10は、データDT102のセンサ情報SDT102がモデルM1に入力された場合に、モデルM1が出力するスコアが「1」に近づくように、学習処理を行う。   Also, for example, when the terminal device 10 indicates that the correct answer information RDT 102 has the next tap operation, that is, the tap operation is the first tap of the double tap, the sensor information included in the data DT102 is included in the model M1. When it is input, learning processing is performed so that the score output by the model M1 approaches "1". For example, when the sensor information SDT 102 of the data DT 102 is input to the model M1, the terminal device 10 performs learning processing so that the score output by the model M1 approaches “1”.

なお、モデルの学習手法については、上述した手法に限定されるものではなく、任意の公知技術が適用可能である。なお、各モデルの生成は、機械学習に関する種々の従来技術を適宜用いて行われてもよい。例えば、モデルの生成は、SVM(Support Vector Machine)等の教師あり学習の機械学習に関する技術を用いて行われてもよい。また、例えば、モデルの生成は、教師なし学習の機械学習に関する技術を用いて行われてもよい。例えば、モデルの生成は、深層学習(ディープラーニング)の技術を用いて行われてもよい。例えば、モデルの生成は、DNN(Deep Neural Network)やRNN(Recurrent Neural Network)やCNN(Convolutional Neural Network)等の種々のディープラーニングの技術を適宜用いて行われてもよい。なお、上記モデルの生成に関する記載は例示であり、モデルの生成は、取得可能な情報等に応じて適宜選択された学習手法により行われてもよい。すなわち、端末装置10は、学習データに含まれるセンサ情報が入力された場合に、正解情報に対応するスコアを出力するようにモデルM1を学習可能であれば、どのような手法によりモデルM1の生成を行ってもよい。   In addition, about the learning method of a model, it is not limited to the method mentioned above, Arbitrary well-known techniques are applicable. Note that generation of each model may be performed using various conventional techniques related to machine learning as appropriate. For example, model generation may be performed using a technique related to machine learning of supervised learning such as SVM (Support Vector Machine). Also, for example, model generation may be performed using a technique related to machine learning of unsupervised learning. For example, model generation may be performed using deep learning techniques. For example, generation of a model may be performed using various deep learning techniques, such as Deep Neural Network (DNN), Recurrent Neural Network (RNN), Convolutional Neural Network (CNN), etc., as appropriate. In addition, the description regarding the production | generation of the said model is an illustration, and the production | generation of a model may be performed by the learning method suitably selected according to the information etc. which can be acquired. That is, if the terminal device 10 can learn the model M1 so as to output the score corresponding to the correct answer information when the sensor information included in the learning data is input, generation of the model M1 by any method You may

上記のような処理により、端末装置10は、ユーザの操作がシングルタップであるかダブルタップであるかの判定に用いるモデルM1を生成する。例えば、端末装置10は、モデルM1にセンサ情報を入力することにより、入力したセンサ情報に対応するタップ操作の後に次のタップ操作が行われる可能性を示すスコアを、モデルM1に出力させる。そして、端末装置10は、モデルM1が出力するスコアに基づいて、入力したセンサ情報に対応するタップ操作がシングルタップであるか、ダブルタップの1回目のタップ操作であるかを判定する。   Through the processing as described above, the terminal device 10 generates a model M1 used to determine whether the user's operation is a single tap or a double tap. For example, by inputting sensor information into the model M1, the terminal device 10 causes the model M1 to output a score indicating the possibility that the next tap operation will be performed after the tap operation corresponding to the input sensor information. Then, the terminal device 10 determines whether the tap operation corresponding to the input sensor information is a single tap or a double tap first tap operation based on the score output from the model M1.

上述したように、端末装置10は、ユーザ情報と、シングルタップであるかダブルタップの1回目のタップであるかを示す正解情報とセンサ情報とが対応付けられた学習データを用いて学習することにより、あるタップ操作がシングルタップであるかダブルタップの1回目のタップであるかを適切に判定可能にするモデルを生成することができる。したがって、端末装置10は、上述のように生成したモデルを用いることにより、例えば、あるユーザの操作がシングルタップであるかダブルタップであるかを精度よく判定することができ、ユーザの操作性の向上を可能にすることができる。   As described above, the terminal device 10 performs learning using learning data in which user information and correct answer information indicating whether it is a single tap or a double tap first tap and sensor information are associated with each other. Thus, it is possible to generate a model that can appropriately determine whether a certain tap operation is a single tap or a double tap first tap. Therefore, by using the model generated as described above, the terminal device 10 can accurately determine, for example, whether the user's operation is a single tap or a double tap, and the user's operability can be improved. It is possible to improve.

〔1−2.モデル〕
図2の例では、端末装置10がユーザU1のタップ操作に関するセンサ情報を用いて、タップ操作に続けて次のタップ操作が行われるかを判定するモデルM1を生成する場合を一例として説明したが、モデルの生成については上記に限らず、種々の態様であってもよい。
[1-2. model〕
In the example of FIG. 2, the case where the terminal device 10 generates the model M1 that determines whether the next tap operation is performed following the tap operation using sensor information on the tap operation of the user U1 has been described as an example. The generation of the model is not limited to the above, and may be various aspects.

〔1−2−1.複数ユーザ〕
例えば、判定システム1においては、サーバ装置50が複数の端末装置10から収集したセンサ情報に基づく学習データを用いてモデルを生成してもよい。そして、サーバ装置50は、複数の端末装置10から収集したセンサ情報に基づく学習データを用いて生成したモデルを、各端末装置10へ提供してもよい。例えば、サーバ装置50は、複数の端末装置10から収集したセンサ情報に基づく学習データを用いて、ユーザ属性ごとのモデルを生成してもよい。
[1-2-1. Multiple users]
For example, in the determination system 1, the server device 50 may generate a model using learning data based on sensor information collected from a plurality of terminal devices 10. Then, the server device 50 may provide each terminal device 10 with a model generated using learning data based on sensor information collected from a plurality of terminal devices 10. For example, the server device 50 may generate a model for each user attribute using learning data based on sensor information collected from a plurality of terminal devices 10.

例えば、サーバ装置50は、男性のユーザの操作に関するセンサ情報を用いて、男性用のモデルを生成してもよい。そして、サーバ装置50は、男性が利用する端末装置10に高齢者用のモデルを提供してもよい。例えば、サーバ装置50は、女性のユーザの操作に関するセンサ情報を用いて、女性用のモデルを生成してもよい。そして、サーバ装置50は、女性が利用する端末装置10に高齢者用のモデルを提供してもよい。   For example, the server device 50 may generate a model for male using sensor information on the operation of a male user. And the server apparatus 50 may provide the model for elderly people to the terminal device 10 which a male utilizes. For example, the server device 50 may generate a model for a woman using sensor information on the operation of a female user. Then, the server device 50 may provide the terminal device 10 used by a woman with a model for elderly people.

例えば、サーバ装置50は、高齢者(例えば50代以上等)のユーザの操作に関するセンサ情報を用いて、高齢者用のモデルを生成してもよい。そして、サーバ装置50は、高齢者が利用する端末装置10に高齢者用のモデルを提供してもよい。   For example, the server device 50 may generate a model for elderly people by using sensor information related to the operation of the user of the elderly people (for example, 50 or more). Then, the server device 50 may provide the terminal device 10 used by the elderly person with a model for the elderly person.

〔1−2−2.トリプルタップ等〕
また、端末装置10は、シングルタップかダブルタップの1回目のタップであるかの判定に限らず、ダブルタップかトリプルタップ(3回連続タップ)の2回目のタップであるかの判定するモデルM2を生成してもよい。そして、端末装置10は、モデルM2を用いて、ユーザのタップ操作がダブルタップかトリプルタップの2回目のタップであるかを判定してもよい。また、端末装置10は、トリプルタップか4回連続タップの3回目のタップであるかの判定するモデルを生成してもよい。
1-2-2. Triple tap etc.]
Further, the terminal device 10 is not limited to the determination as to whether it is the first tap of single tap or double tap, but it is also a model M2 that determines whether it is the second tap of double tap or triple tap (three consecutive taps). May be generated. Then, the terminal device 10 may use the model M2 to determine whether the tap operation by the user is a double tap or a second tap of a triple tap. Also, the terminal device 10 may generate a model that determines whether it is the third tap of triple taps or four consecutive taps.

〔1−2−3.タップ操作以外〕
例えば、端末装置10は、タップ操作に限らず、ユーザの操作であればどのような操作を対象にモデルを生成してもよい。例えば、端末装置10は、ユーザの所定の操作の後に、ユーザのスワイプ操作が行われるかを判定するモデルM3を生成してもよい。そして、端末装置10は、モデルM3を用いて、ユーザの所定の操作の後に、ユーザのスワイプ操作が行われるかを判定してもよい。
1-2-3. Other than tap operation]
For example, the terminal device 10 may generate a model for any operation as long as the user's operation is not limited to the tap operation. For example, the terminal device 10 may generate a model M3 that determines whether a user's swipe operation is performed after a user's predetermined operation. Then, the terminal device 10 may use the model M3 to determine whether the user's swipe operation is performed after the user's predetermined operation.

〔1−3.モデル以外での判定〕
図1の例では、端末装置10がモデルを用いて判定する場合を示したが、端末装置10は、モデルを用いることなく、判定処理を行ってもよい。例えば、端末装置10は、センサ情報に含まれる各種別のセンサ値と、各種別に対応する閾値とを比較することにより、ユーザのタップ操作に続けて、次のタップ操作が行われるかを判定してもよい。なお、ここでいう種別とは、圧力や接触面積や接触時間等のセンサ情報に含まれる情報の種別であるものとする。また、ここでいうセンサ値とは、圧力や接触面積や接触時間等の具体的な数値であるものとする。例えば、圧力のセンサ値はニュートン毎平方メートル(N/m)やパスカル(Pa)を単位とする値であり、接触面積のセンサ値は平方メートル(m)を単位とする値であり、接触時間のセンサ値は秒(s)を単位とする値であってもよい。
[1-3. Judgment other than model]
Although the example in FIG. 1 shows the case where the terminal device 10 makes a determination using a model, the terminal device 10 may perform the determination process without using a model. For example, the terminal device 10 determines whether the next tap operation is to be performed following the user's tap operation by comparing the various types of sensor values included in the sensor information with the corresponding threshold values. May be In addition, a classification here shall be a classification of the information contained in sensor information, such as a pressure, a contact area, and contact time. Further, the sensor value mentioned here is a specific numerical value such as pressure, contact area, and contact time. For example, a sensor value of pressure is a value in Newton per square meter (N / m 2 ) or Pascal (Pa), a sensor value of a contact area is a value in square meters (m 2 ), a contact time The sensor value of may be a value in seconds (s).

例えば、端末装置10は、センサ情報に含まれる各種別のセンサ値と、各種別に対応する閾値とを比較することにより、ユーザのタップ操作に続けて、次のタップ操作が行われるかを判定してもよい。例えば、端末装置10は、センサ値のうち、対応する閾値との比較が所定の条件を満たすセンサ値の数が所定数(例えば2や4等)以上である場合、ユーザのタップ操作に続けて、次のタップ操作が行われないと判定してもよい。 For example, the terminal device 10 determines whether the next tap operation is to be performed following the user's tap operation by comparing the various types of sensor values included in the sensor information with the corresponding threshold values. May be For example, the terminal device 10 continues the tap operation of the user when the number of sensor values satisfying the predetermined condition among the sensor values is greater than or equal to a predetermined number (for example, 2 or 4). It may be determined that the next tap operation is not performed.

例えば、端末装置10は、センサ値のうち、対応する閾値との比較が所定の条件を満たすセンサ値の数が2以上である場合、ユーザのタップ操作に続けて、次のタップ操作が行われないと判定してもよい。例えば、端末装置10は、種別「圧力」のセンサ値(圧力値)が種別「圧力」の閾値以上であり、種別「接触時間」のセンサ値(時間)が種別「接触時間」の閾値以上である場合、ユーザのタップ操作に続けて、次のタップ操作が行われないと判定してもよい。例えば、端末装置10は、種別「圧力」のセンサ値(圧力値)が種別「圧力」の閾値以上であり、種別「接触時間」のセンサ値(時間)が種別「接触時間」の閾値以上である場合、ユーザの操作がシングルタップであると判定してもよい。   For example, in the terminal device 10, when the number of sensor values satisfying the predetermined threshold value among the sensor values is two or more, the next tap operation is performed following the user's tap operation. It may be determined that there is no. For example, in the terminal device 10, the sensor value (pressure value) of the type "pressure" is equal to or higher than the threshold of the type "pressure", and the sensor value (time) of the type "contact time" is equal to or higher than the threshold of the type "contact time". In some cases, it may be determined that the next tap operation is not performed following the user's tap operation. For example, in the terminal device 10, the sensor value (pressure value) of the type "pressure" is equal to or higher than the threshold of the type "pressure", and the sensor value (time) of the type "contact time" is equal to or higher than the threshold of the type "contact time". In some cases, it may be determined that the user's operation is a single tap.

例えば、端末装置10は、センサ値のうち、対応する閾値との比較が所定の条件を満たすセンサ値の数が2未満である場合、ユーザのタップ操作に続けて、次のタップ操作が行われると判定してもよい。例えば、端末装置10は、1つのセンサ値のみが対応する閾値未満である場合、ユーザのタップ操作に続けて、次のタップ操作が行われると判定する。例えば、端末装置10は、種別「圧力」のセンサ値(圧力値)が種別「圧力」の閾値以上である場合、ユーザの操作がシングルタップではないと判定してもよい。   For example, in the terminal device 10, when the number of sensor values satisfying the predetermined condition for comparison with the corresponding threshold among the sensor values is less than 2, the next tap operation is performed following the user's tap operation. It may be determined that For example, if only one sensor value is less than the corresponding threshold value, the terminal device 10 determines that the next tap operation is to be performed following the user's tap operation. For example, the terminal device 10 may determine that the user's operation is not a single tap when the sensor value (pressure value) of the type “pressure” is equal to or more than the threshold of the type “pressure”.

なお、各センサ値の種別に対応する閾値は、種々の情報を適宜用いて設定されてもよい。例えば、各センサ値の種別に対応する閾値は、ユーザと属性が類似するユーザ群の平均等であってもよい。例えば、各センサ値の種別に対応する閾値は、ユーザに複数回操作を行わせ、その複数回の操作に関するセンサ情報における各センサ値の平均を閾値としてもよい。   The threshold value corresponding to the type of each sensor value may be set using various information as appropriate. For example, the threshold value corresponding to the type of each sensor value may be an average of a group of users whose attributes are similar to the user. For example, the threshold corresponding to the type of each sensor value may be operated by the user a plurality of times, and the average of each sensor value in the sensor information regarding the plurality of operations may be set as the threshold.

例えば、端末装置10は、画面に「ダブルタップしてください」と表示し、ユーザに数回所定の操作を試行させ、その操作のセンサ情報に基づいて閾値を調整(キャリブレーション)してもよい。また、端末装置10は、ユーザによる閾値の設定を受け付けてもよい。   For example, the terminal device 10 may display “Please double-tap please” on the screen, have the user try a predetermined operation several times, and adjust (calibrate) the threshold based on the sensor information of the operation . Also, the terminal device 10 may receive the setting of the threshold value by the user.

〔3.端末装置の構成〕
次に、図4を用いて、実施形態に係る端末装置10の構成について説明する。図4は、実施形態に係る端末装置の構成例を示す図である。図4に示すように、端末装置10は、通信部11と、入力部12と、出力部13と、記憶部14と、制御部15と、センサ部16とを有する。
[3. Configuration of terminal device]
Next, the configuration of the terminal device 10 according to the embodiment will be described with reference to FIG. FIG. 4 is a diagram illustrating an exemplary configuration of a terminal device according to the embodiment. As shown in FIG. 4, the terminal device 10 includes a communication unit 11, an input unit 12, an output unit 13, a storage unit 14, a control unit 15, and a sensor unit 16.

(通信部11)
通信部11は、例えば、通信回路等によって実現される。そして、通信部11は、図示しない所定の通信網と有線または無線で接続され、外部の情報処理装置との間で情報の送受信を行う。例えば、通信部11は、図示しない所定の通信網と有線または無線で接続され、サーバ装置50との間で情報の送受信を行う。
(Communication unit 11)
The communication unit 11 is realized by, for example, a communication circuit or the like. The communication unit 11 is connected to a predetermined communication network (not shown) in a wired or wireless manner, and transmits and receives information to and from an external information processing apparatus. For example, the communication unit 11 is connected to a predetermined communication network (not shown) in a wired or wireless manner, and transmits and receives information to and from the server device 50.

(入力部12)
入力部12は、ユーザから各種操作が入力される。例えば、入力部12は、タッチパネル機能により表示面(例えば出力部13)を介してユーザからの各種操作を受け付けてもよい。また、入力部12は、端末装置10に設けられたボタンや、端末装置10に接続されたキーボードやマウスからの各種操作を受け付けてもよい。
(Input unit 12)
The input unit 12 receives various operations from the user. For example, the input unit 12 may receive various operations from the user via the display surface (for example, the output unit 13) by the touch panel function. The input unit 12 may also receive various operations from a button provided on the terminal device 10 or a keyboard or mouse connected to the terminal device 10.

入力部12は、センサ部16に含まれる各種センサにより実現されるタッチパネルの機能によりタブレット端末等の表示画面を介してユーザから各種操作を受け付ける。すなわち、入力部12は、端末装置10の出力部13を介してユーザから各種操作を受け付ける。例えば、入力部12は、端末装置10の出力部13を介してユーザの指定操作等の操作を受け付ける。言い換えると、入力部12は、タッチパネルの機能によりユーザの操作を受け付ける受付部として機能する。なお、入力部12によるユーザの操作の検知方式には、タブレット端末では主に静電容量方式が採用されるが、他の検知方式である抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式など、ユーザの操作を検知できタッチパネルの機能が実現できればどのような方式を採用してもよい。また、端末装置10は、端末装置10にボタンが設けられたり、キーボードやマウスが接続されていたりする場合、ボタン等による操作も受け付ける入力部を有してもよい。   The input unit 12 receives various operations from the user via the display screen of a tablet terminal or the like by the function of the touch panel realized by the various sensors included in the sensor unit 16. That is, the input unit 12 receives various operations from the user via the output unit 13 of the terminal device 10. For example, the input unit 12 receives an operation such as a designation operation of the user via the output unit 13 of the terminal device 10. In other words, the input unit 12 functions as a reception unit that receives the user's operation by the function of the touch panel. In addition, although the electrostatic capacitance system is mainly adopted as a detection method of the user's operation by the input unit 12 in the tablet terminal, the resistive film system which is another detection system, surface acoustic wave system, infrared ray system, electromagnetic induction Any method such as a method may be adopted as long as the operation of the user can be detected and the function of the touch panel can be realized. In addition, the terminal device 10 may have an input unit that also receives an operation by a button or the like when the terminal device 10 is provided with a button or a keyboard or a mouse is connected.

(出力部13)
出力部13は、例えば液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイ等によって実現されるタブレット端末等の表示画面であり、各種情報を表示するための表示装置である。つまり、端末装置10は、出力部13である表示画面によりユーザの入力を受け付け、ユーザへの出力も行う。
(Output unit 13)
The output unit 13 is a display screen such as a tablet terminal realized by, for example, a liquid crystal display or an organic EL (Electro-Luminescence) display, and is a display device for displaying various information. That is, the terminal device 10 receives an input of the user on the display screen which is the output unit 13 and also performs an output to the user.

(記憶部14)
記憶部14は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部14は、例えば、端末装置10にインストールされているアプリケーション(例えば電子書籍アプリ)に関する情報、例えばプログラム等を記憶する。また、実施形態に係る記憶部14は、図4に示すように、学習データ記憶部141と、モデル情報記憶部142と、コンテンツ情報記憶部143とを有する。
(Storage unit 14)
The storage unit 14 is realized by, for example, a semiconductor memory device such as a random access memory (RAM) or a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 14 stores, for example, information on an application (for example, an electronic book application) installed in the terminal device 10, such as a program. Further, as illustrated in FIG. 4, the storage unit 14 according to the embodiment includes a learning data storage unit 141, a model information storage unit 142, and a content information storage unit 143.

(学習データ記憶部141)
実施形態に係る学習データ記憶部141は、学習データに関する各種情報を記憶する。図5は、実施形態に係る学習データ記憶部の一例を示す図である。例えば、学習データ記憶部141は、モデルの生成に用いる教師データを記憶する。図5に示す学習データ記憶部141には、「データID」、「正解情報」、「センサ情報」といった項目が含まれる。「センサ情報」には、ユーザの端末装置10の画面に対する接触の圧力や面積や時間等の種々の情報が含まれる。なお、「センサ情報」には、ユーザの端末装置10の画面に対する接触の圧力や面積や時間等に限らず、センサが検知した情報であればどのような情報が記憶されてもよい。
(Learning data storage unit 141)
The learning data storage unit 141 according to the embodiment stores various information related to learning data. FIG. 5 is a diagram illustrating an example of a learning data storage unit according to the embodiment. For example, the learning data storage unit 141 stores teacher data used to generate a model. The learning data storage unit 141 illustrated in FIG. 5 includes items such as “data ID”, “correct answer information”, and “sensor information”. The “sensor information” includes various information such as pressure, area, and time of contact with the screen of the terminal device 10 of the user. Note that the “sensor information” is not limited to the pressure, area, time, and the like of the contact with the screen of the terminal device 10 of the user, and any information may be stored as long as it is information detected by a sensor.

「データID」は、データを識別するための識別情報を示す。例えば、「データID」は、学習データ(教師データ)として用いられる端末装置10の画面に対するユーザの所定の操作に関するセンサ情報と正解情報との組合せを識別するための識別情報を示す。例えば、データID「DT101」により識別されるデータは、図2の例に示した、データDT101に対応する。   "Data ID" indicates identification information for identifying data. For example, “data ID” indicates identification information for identifying a combination of sensor information and correct answer information regarding a predetermined operation of the user on the screen of the terminal device 10 used as learning data (teacher data). For example, the data identified by the data ID "DT101" corresponds to the data DT101 shown in the example of FIG.

「正解情報」は、データIDにより識別されるデータに対応する正解情報を示す。例えば、「正解情報」は、データIDにより識別されるデータに対応するユーザの実際の行動の種別を示す。例えば、「正解情報」は、データIDにより識別されるデータに対応する操作の後に続けてユーザが次のタップ操作を行ったか否かを示す。図5では「正解情報」に「RDT101」といった概念的な情報が格納される例を示したが、実際には、データIDにより識別されるデータに対応する操作の後に続けてユーザが次のタップ操作を行ったか否かを示す情報などが格納される。   The "correct answer information" indicates correct answer information corresponding to the data identified by the data ID. For example, “correct information” indicates the type of the user's actual action corresponding to the data identified by the data ID. For example, “correct information” indicates whether the user has performed the next tap operation following the operation corresponding to the data identified by the data ID. Although FIG. 5 shows an example in which conceptual information such as “RDT 101” is stored in “correct information”, actually, the user taps the next tap following the operation corresponding to the data identified by the data ID. Information indicating whether or not an operation has been performed is stored.

「センサ情報」は、端末装置10の画面に対するユーザの所定の操作に関するセンサ情報を示す。図5では「センサ情報」に「SDT101」といった概念的な情報が格納される例を示したが、実際には、対応するユーザの端末装置10の画面に対する接触の圧力や面積や時間等の種々の情報等、または、その格納場所を示すファイルパス名などが格納される。   “Sensor information” indicates sensor information on a predetermined operation of the user on the screen of the terminal device 10. Although an example in which conceptual information such as "SDT 101" is stored in "Sensor information" is shown in FIG. 5, in fact, various factors such as pressure, area, and time of contact with the screen of the terminal device 10 of the corresponding user Information etc., or a file path name etc. indicating the storage location.

例えば、図5に示す例において、データID「DT101」により識別されるデータ(データDT101)は、正解情報RDT101やセンサ情報SDT101を含むことを示す。データDT101の正解情報RDT101は、センサ情報SDT101に対応するユーザのタップ操作の後に続けて、次のタップ操作が行われなかったことを示す。すなわち、データDT101の正解情報RDT101は、センサ情報SDT101に対応するユーザのタップ操作が、シングルタップであったことを示す。   For example, in the example shown in FIG. 5, the data (data DT101) identified by the data ID "DT101" indicates that the correct answer information RDT101 and the sensor information SDT101 are included. The correct answer information RDT 101 of the data DT 101 indicates that the next tap operation has not been performed after the user's tap operation corresponding to the sensor information SDT 101. That is, the correct answer information RDT 101 of the data DT 101 indicates that the user's tap operation corresponding to the sensor information SDT 101 is a single tap.

なお、学習データ記憶部141は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、学習データ記憶部141は、学習データが追加された日時に関する情報を記憶してもよい。また、例えば、学習データ記憶部141は、モデルの生成にセンサ情報以外にユーザの属性情報を用いる場合、ユーザの属性等のユーザ情報を記憶してもよい。例えば、学習データ記憶部141は、ユーザ情報として、デモグラフィック属性情報やサイコグラフィック属性情報を記憶してもよい。例えば、学習データ記憶部141は、氏名、年齢、性別、自宅、勤務地、興味、家族構成、収入、ライフスタイル等の情報を記憶してもよい。例えば、学習データ記憶部141は、ユーザ情報として、ユーザのインターネット(ウェブ)上における行動情報を記憶してもよい。例えば、学習データ記憶部141は、ユーザ情報として、ユーザがどのような商品を購入したかを示す購入履歴等を記憶してもよい。また、例えば、学習データ記憶部141は、ユーザ情報として、ユーザがどのようなコンテンツを閲覧したかを示す閲覧履歴等を記憶してもよい。   The learning data storage unit 141 is not limited to the above, and may store various information according to the purpose. For example, the learning data storage unit 141 may store information on the date and time when the learning data was added. Also, for example, when using the user's attribute information other than the sensor information for generation of the model, the learning data storage unit 141 may store user information such as the user's attribute. For example, the learning data storage unit 141 may store demographic attribute information or psychographic attribute information as user information. For example, the learning data storage unit 141 may store information such as name, age, gender, home, work location, interest, family structure, income, lifestyle and the like. For example, the learning data storage unit 141 may store, as user information, behavior information of the user on the Internet (web). For example, the learning data storage unit 141 may store, as user information, a purchase history or the like indicating what item the user has purchased. In addition, for example, the learning data storage unit 141 may store, as user information, a browsing history or the like indicating what kind of content the user browsed.

また、例えば、学習データ記憶部141は、学習用データをユーザ毎に記憶する場合、ユーザを識別するための識別情報を記憶してもよい。   Also, for example, when storing the learning data for each user, the learning data storage unit 141 may store identification information for identifying the user.

(モデル情報記憶部142)
実施形態に係るモデル情報記憶部142は、モデルに関する情報を記憶する。例えば、モデル情報記憶部142は、生成処理により生成されたモデル情報(モデルデータ)を記憶する。図6は、実施形態に係るモデル情報記憶部の一例を示す図である。図6に示すモデル情報記憶部142は、「モデルID」、「判定対象」、「モデルデータ」といった項目が含まれる。なお、図6では、モデルM1、M2、M3のみを図示するが、M4、M5等、各判定対象(フラグ付与の対象となる物事)に応じて多数のモデル情報が記憶されてもよい。
(Model information storage unit 142)
The model information storage unit 142 according to the embodiment stores information on a model. For example, the model information storage unit 142 stores model information (model data) generated by the generation process. FIG. 6 is a diagram illustrating an example of a model information storage unit according to the embodiment. The model information storage unit 142 illustrated in FIG. 6 includes items such as “model ID”, “determination target”, and “model data”. Although only the models M1, M2, and M3 are illustrated in FIG. 6, a large number of pieces of model information may be stored according to each determination target (things to which a flag is to be added) such as M4 and M5.

「モデルID」は、モデルを識別するための識別情報を示す。例えば、モデルID「M1」により識別されるモデルは、図1や図2の例に示したモデルM1に対応する。「判定対象」は、次の操作である2回目のタップが行われるかの判定に用いられるそのフラグの対象を示す。また、「モデルデータ」は、対応付けられた対応するモデルのデータを示す。例えば、「モデルデータ」には、各層におけるノードと、各ノードが採用する関数と、ノードの接続関係と、ノード間の接続に対して設定される接続係数とを含む情報が含まれる。   "Model ID" indicates identification information for identifying a model. For example, the model identified by the model ID “M1” corresponds to the model M1 illustrated in the example of FIGS. 1 and 2. “Determination target” indicates the target of the flag used to determine whether the second operation, which is the next operation, is performed. Also, “model data” indicates data of the corresponding corresponding model. For example, “model data” includes information including nodes in each layer, functions adopted by each node, connection relationships between nodes, and connection coefficients set for connections between nodes.

例えば、図6に示す例において、モデルID「M1」により識別されるモデル(モデルM1)は、対象となる判定対象が「次のタップ(2回目のタップ)」であることを示す。すなわち、モデルM1は、端末装置10の画面に対するユーザのタップ操作に関するセンサ情報が入力された場合に、そのタップ操作に続けて次のタップ操作が行われるかの判定に用いられることを示す。また、モデルM1のモデルデータは、モデルデータMDT1であることを示す。   For example, in the example illustrated in FIG. 6, the model (model M1) identified by the model ID “M1” indicates that the target determination target is “next tap (second tap)”. That is, the model M1 indicates that, when sensor information related to the tap operation of the user on the screen of the terminal device 10 is input, the model M1 is used for determining whether the next tap operation is performed following the tap operation. Further, model data of the model M1 indicates that it is model data MDT1.

モデルM1(モデルデータMDT1)は、端末装置10の画面に対するユーザの所定の操作に関するセンサ情報が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力されたセンサ情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、ユーザが所定の操作に続けて次の操作を行うかの判定に用いられるスコアの値を出力層から出力するよう、コンピュータを機能させるためのモデルである。   The model M1 (model data MDT1) is an input layer to which sensor information regarding a predetermined operation of the user on the screen of the terminal device 10 is input, an output layer, and any layer from the input layer to the output layer An output layer for the sensor information input to the input layer, including a first element belonging to a layer other than the layer, and a second element whose value is calculated based on the first element and the weight of the first element It is used to determine whether the user performs a next operation following a predetermined operation by performing an operation based on the first element and the weight of the first element with each element belonging to each layer as the first element. It is a model for functioning a computer to output score values from an output layer.

ここで、モデルM1、M2、M3等が「y=a1*x1+a2*x2+・・・+ai*xi」で示す回帰モデルで実現されるとする。この場合、例えば、モデルM1が含む第1要素は、x1やx2等といった入力データ(xi)に対応する。また、第1要素の重みは、xiに対応する係数aiに対応する。ここで、回帰モデルは、入力層と出力層とを有する単純パーセプトロンと見做すことができる。各モデルを単純パーセプトロンと見做した場合、第1要素は、入力層が有するいずれかのノードに対応し、第2要素は、出力層が有するノードと見做すことができる。   Here, it is assumed that the models M1, M2, M3, etc. are realized by the regression model shown by "y = a1 * x1 + a2 * x2 +... + Ai * xi". In this case, for example, the first element included in the model M1 corresponds to input data (xi) such as x1 and x2. Also, the weight of the first element corresponds to the coefficient ai corresponding to xi. Here, the regression model can be regarded as a simple perceptron having an input layer and an output layer. When each model is regarded as a simple perceptron, the first element can correspond to any node of the input layer, and the second element can be regarded as a node of the output layer.

また、モデルM1、M2、M3等がDNN等、1つまたは複数の中間層を有するニューラルネットワークで実現されるとする。この場合、例えば、モデルM1が含む第1要素は、入力層または中間層が有するいずれかのノードに対応する。また、第2要素は、第1要素と対応するノードから値が伝達されるノードである次段のノードに対応する。また、第1要素の重みは、第1要素と対応するノードから第2要素と対応するノードに伝達される値に対して考慮される重みである接続係数に対応する。   Further, it is assumed that the models M1, M2, M3, etc. are realized by a neural network having one or more intermediate layers such as DNN. In this case, for example, the first element included in the model M1 corresponds to any node that the input layer or the middle layer has. Also, the second element corresponds to the next-stage node that is a node to which a value is transmitted from the node corresponding to the first element. Also, the weight of the first element corresponds to the connection coefficient, which is a weight considered for the value transmitted from the node corresponding to the first element to the node corresponding to the second element.

なお、モデル情報記憶部142は、上記に限らず、目的に応じて種々のモデル情報を記憶してもよい。   The model information storage unit 142 is not limited to the above, and may store various model information according to the purpose.

(コンテンツ情報記憶部143)
実施形態に係るコンテンツ情報記憶部143は、コンテンツに関する情報を記憶する。例えば、コンテンツ情報記憶部143は、電子書籍に関する情報(電子データ)を記憶する。図7は、実施形態に係るコンテンツ情報記憶部の一例を示す図である。図7に示すコンテンツ情報記憶部143は、「コンテンツID」、「内容」、「コンテンツデータ」といった項目が含まれる。なお、図7では、コンテンツCT1、CT2のみを図示するが、CT3、CT4、CT5等、ユーザがダウンロード等により取得したマンガや雑誌等の多数の電子データ(コンテンツ情報)が記憶されてもよい。
(Content information storage unit 143)
The content information storage unit 143 according to the embodiment stores information related to content. For example, the content information storage unit 143 stores information (electronic data) related to an electronic book. FIG. 7 is a diagram showing an example of the content information storage unit according to the embodiment. The content information storage unit 143 illustrated in FIG. 7 includes items such as “content ID”, “content”, and “content data”. Although only the contents CT1 and CT2 are illustrated in FIG. 7, a large number of electronic data (content information) such as manga and magazines acquired by the user by downloading or the like may be stored, such as CT3, CT4 and CT5.

「コンテンツID」は、コンテンツを識別するための識別情報を示す。例えば、コンテンツID「CT1」により識別されるコンテンツは、図1の例に示したページPG1やページPG2等を含むコンテンツ(電子データ)であってもよい。「内容」は、対応するコンテンツの内容を示す。また、「コンテンツデータ」は、対応するコンテンツのデータを示す。図7では「コンテンツデータ」に「コンテンツデータCDT1」といった概念的な情報が格納される例を示したが、実際には、電子書籍(電子データ)、または、その格納場所を示すファイルパス名などが格納される。   "Content ID" indicates identification information for identifying content. For example, the content identified by the content ID “CT1” may be content (electronic data) including the page PG1 and the page PG2 illustrated in the example of FIG. 1. "Content" indicates the content of the corresponding content. Also, "content data" indicates data of the corresponding content. Although FIG. 7 shows an example in which conceptual information such as “content data CDT1” is stored in “content data”, an electronic book (electronic data) or a file path name indicating the storage location or the like is actually used. Is stored.

例えば、図7に示す例において、コンテンツID「CT1」により識別されるコンテンツ(コンテンツCT1)は、内容が「マンガX」であることを示す。すなわち、コンテンツCT1は、電子書籍「マンガX」であることを示す。また、コンテンツCT1のコンテンツデータは、コンテンツデータCDT1であることを示す。   For example, in the example shown in FIG. 7, the content (content CT1) identified by the content ID “CT1” indicates that the content is “manga X”. That is, the content CT1 indicates that the electronic book is "manga X". Also, it indicates that the content data of the content CT1 is content data CDT1.

なお、コンテンツ情報記憶部143は、上記に限らず、目的に応じて種々のコンテンツに関する情報を記憶してもよい。   The content information storage unit 143 is not limited to the above, and may store information on various content according to the purpose.

(制御部15)
制御部15は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、端末装置10内部の記憶部14などの記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。例えば、この各種プログラムは、判定処理を行うアプリケーション(例えば電子書籍アプリ)のプログラムが含まれる。また、制御部15は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。制御部15は、モデル情報記憶部142に記憶されているモデルM1等に従った情報処理により、端末装置10の画面に対するユーザの所定の操作に関するセンサ情報が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力されたセンサ情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、ユーザが所定の操作に続けて次の操作を行うかの判定に用いられるスコアの値を出力層から出力する。
(Control unit 15)
The control unit 15 is a controller, and for example, various programs stored in a storage device such as the storage unit 14 in the terminal device 10 by a central processing unit (CPU), a micro processing unit (MPU), or the like. It is realized by executing the RAM as a work area. For example, the various programs include a program of an application (for example, an electronic book application) which performs a determination process. The control unit 15 is a controller, and is realized by an integrated circuit such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA). The control unit 15 performs an information process according to the model M1 and the like stored in the model information storage unit 142, and an input layer and an output layer to which sensor information regarding a predetermined operation of the user on the screen of the terminal device 10 is input. A first element belonging to any layer from the input layer to the output layer and belonging to a layer other than the output layer, and a second element whose value is calculated based on the weight of the first element and the first element; The user performs the operation based on the first element and the weight of the first element, with each element belonging to each layer other than the output layer as the first element on the sensor information input to the input layer, including The output layer outputs the value of the score used to determine whether to perform the next operation following the above operation.

例えば、端末装置10は、上述した回帰モデルやニューラルネットワーク等、任意の構造を有するモデルを用いて、ユーザが所定の操作に続けて次の操作を行うかの判定に用いられるスコアの算出を行う。具体的には、モデルM1、M2、M3等は、端末装置10の画面に対するユーザの所定の操作に関するセンサ情報(すなわち、上述したスコアの算出に用いられる各要素)が入力された場合に、ユーザが所定の操作に続けて次の操作を行うかの判定に用いられるスコア(すなわち、ユーザがフラグに対応する対象と関連する可能性がどの程度であるかを示唆するスコア)を出力するように係数が設定される。情報提供装置10は、このようなモデルM1、M2、M3等を用いて、端末装置10の画面に対するユーザの所定の操作に関するセンサ情報のスコアを算出する。   For example, the terminal device 10 calculates a score used to determine whether the user performs a next operation following a predetermined operation, using a model having an arbitrary structure, such as the above-described regression model or neural network. . Specifically, in the models M1, M2, M3, etc., when the sensor information (that is, each element used for calculating the score described above) regarding the predetermined operation of the user on the screen of the terminal device 10 is input, the user To output a score used to determine whether the user performs the next operation following a given operation (ie, a score that indicates how likely the user is to be associated with the subject corresponding to the flag) A coefficient is set. The information providing apparatus 10 calculates a score of sensor information regarding a predetermined operation of the user on the screen of the terminal device 10 using such models M1, M2, M3, and the like.

なお、上記例では、モデルM1、M2、M3等が、端末装置10の画面に対するユーザの所定の操作に関するセンサ情報が入力された場合に、ユーザが所定の操作に続けて次の操作を行うかの判定に用いられるスコアを出力するモデルである例を示した。しかし、実施形態に係るモデルM1、M2、M3等は、データの入出力を繰り返すことで得られる結果に基づいて生成されるモデルであってもよい。例えば、モデルは、端末装置10の画面に対するユーザの所定の操作に関するセンサ情報を入力とし、モデルM1が出力するスコアを出力とするよう学習されたモデル(モデルM1b)であってもよい。または、モデルは、端末装置10の画面に対するユーザの所定の操作に関するセンサ情報を入力とし、モデルM1bの出力値を出力とするよう学習されたモデルであってもよい。   In the above example, when the sensor information regarding the user's predetermined operation on the screen of the terminal device 10 is input to the models M1, M2, M3, etc., does the user perform the next operation following the predetermined operation? The example which is a model which outputs the score used for judgment of was shown. However, the models M1, M2, M3, etc. according to the embodiment may be models generated based on results obtained by repeating input and output of data. For example, the model may be a model (model M1b) learned so as to receive sensor information regarding a predetermined operation of the user on the screen of the terminal device 10 and output a score output from the model M1. Alternatively, the model may be a model learned to have sensor information on a predetermined operation of the user on the screen of the terminal device 10 as an input and an output value of the model M1 b as an output.

また、端末装置10がGAN(Generative Adversarial Networks)を用いた判定処理(判定処理)を行う場合、モデルM1、M2、M3等は、GANの一部を構成するモデルであってもよい。   In addition, when the terminal device 10 performs a determination process (determination process) using GAN (Generative Advertising Networks), the models M1, M2, M3, etc. may be models that constitute a part of GAN.

図4に示すように、制御部15は、取得部151と、生成部152と、判定部153と、送信部154と、表示部155とを有し、以下に説明する判定処理の機能や作用を実現または実行する。なお、制御部15の内部構成は、図4に示した構成に限られず、後述する判定処理を行う構成であれば他の構成であってもよい。また、制御部15が有する各処理部の接続関係は、図4に示した接続関係に限られず、他の接続関係であってもよい。   As shown in FIG. 4, the control unit 15 includes an acquisition unit 151, a generation unit 152, a determination unit 153, a transmission unit 154, and a display unit 155, and functions and operations of the determination processing described below. Achieve or execute. Note that the internal configuration of the control unit 15 is not limited to the configuration shown in FIG. 4, and any other configuration may be used as long as it performs a determination process described later. Moreover, the connection relation of each processing unit included in the control unit 15 is not limited to the connection relation illustrated in FIG. 4, and may be another connection relation.

(取得部151)
取得部151は、各種情報を取得する。例えば、取得部151は、外部の情報処理装置から各種情報を取得する。例えば、取得部151は、記憶部14から各種情報を取得する。取得部151は、学習データ記憶部141やモデル情報記憶部142やコンテンツ情報記憶部143から各種情報を取得する。例えば、取得部151は、センサ部16により検知されたセンサ情報を取得する。
(Acquisition unit 151)
The acquisition unit 151 acquires various types of information. For example, the acquisition unit 151 acquires various types of information from an external information processing apparatus. For example, the acquisition unit 151 acquires various types of information from the storage unit 14. The acquisition unit 151 acquires various types of information from the learning data storage unit 141, the model information storage unit 142, and the content information storage unit 143. For example, the acquisition unit 151 acquires sensor information detected by the sensor unit 16.

取得部151は、端末装置10の画面に対するユーザの所定の操作に関するセンサ情報を取得する。例えば、取得部151は、ユーザが画面に接触する圧力を示す圧力情報を含むセンサ情報を取得する。例えば、取得部151は、画面においてユーザが接触する面積を示す面積情報を含むセンサ情報を取得する。例えば、取得部151は、画面においてユーザが接触する位置を示す位置情報を含むセンサ情報を取得する。例えば、取得部151は、ユーザによる所定の操作の際の端末装置の加速度情報を含むセンサ情報を取得する。例えば、取得部151は、ユーザによる画面への接触から、接触の解除までの時間を示す時間情報を含むセンサ情報を取得する。   The acquisition unit 151 acquires sensor information regarding a predetermined operation of the user on the screen of the terminal device 10. For example, the acquisition unit 151 acquires sensor information including pressure information indicating the pressure with which the user contacts the screen. For example, the acquisition unit 151 acquires sensor information including area information indicating an area where the user touches on the screen. For example, the acquisition unit 151 acquires sensor information including position information indicating a position at which the user touches on the screen. For example, the acquisition unit 151 acquires sensor information including acceleration information of the terminal device at the time of a predetermined operation by the user. For example, the acquisition unit 151 acquires sensor information including time information indicating the time from the touch on the screen by the user to the release of the touch.

例えば、取得部151は、一の種別の所定の操作に関するセンサ情報を取得する。例えば、取得部151は、端末装置10の画面に対するユーザのタップ操作に関するセンサ情報を取得する。例えば、取得部151は、端末装置10の画面に対するユーザのタップ操作に関するセンサ情報を取得する。   For example, the acquisition unit 151 acquires sensor information related to one type of predetermined operation. For example, the acquisition unit 151 acquires sensor information on the tap operation of the user on the screen of the terminal device 10. For example, the acquisition unit 151 acquires sensor information on the tap operation of the user on the screen of the terminal device 10.

図1の例では、取得部151は、ユーザU1のタップ操作に関するセンサ情報SDT11を取得する。例えば、取得部151は、センサ部16に含まれる各種のセンサにより検知されたセンサ情報を含むセンサ情報SDT11を取得する。   In the example of FIG. 1, the acquisition unit 151 acquires sensor information SDT11 related to the tap operation of the user U1. For example, the acquisition unit 151 acquires sensor information SDT11 including sensor information detected by various sensors included in the sensor unit 16.

例えば、取得部151は、圧力センサにより検知された圧力を示す圧力情報を含むセンサ情報SDT11を取得する。例えば、取得部151は、ユーザU1が画面に接触する圧力を示す圧力情報を含むセンサ情報SDT11を取得する。   For example, the acquisition unit 151 acquires sensor information SDT11 including pressure information indicating the pressure detected by the pressure sensor. For example, the acquisition unit 151 acquires sensor information SDT11 including pressure information indicating the pressure with which the user U1 contacts the screen.

例えば、取得部151は、画面におけるユーザの接触範囲(座標)を検知するセンサにより検知されたユーザが接触する面積(接触面積)を示す面積情報を含むセンサ情報SDT11を取得する。例えば、取得部151は、ユーザU1による画面の接触面積を示す面積情報を含むセンサ情報SDT11を取得する。   For example, the acquisition unit 151 acquires sensor information SDT11 including area information indicating an area (contact area) touched by the user detected by a sensor that detects the contact area (coordinates) of the user on the screen. For example, the acquisition unit 151 acquires sensor information SDT11 including area information indicating the contact area of the screen by the user U1.

例えば、取得部151は、端末装置10の画面への接触を検知するセンサや計時機能(タイマー)等により検知されたユーザの接触時間を示す時間情報を含むセンサ情報SDT11を取得する。例えば、取得部151は、ユーザU1が端末装置10の画面への接触から、接触の解除までの時間を示す時間情報を含むセンサ情報SDT11を取得する。   For example, the acquisition unit 151 acquires sensor information SDT11 including time information indicating a contact time of the user detected by a sensor that detects a touch on the screen of the terminal device 10 or a timer function (timer). For example, the acquisition unit 151 acquires sensor information SDT11 including time information indicating the time from the touch of the user U1 on the screen of the terminal device 10 to the release of the touch.

例えば、取得部151は、上記に限らず、加速度センサ等の種々のセンサにより検知されたセンサ情報を含むセンサ情報SDT11を取得してもよい。   For example, acquisition part 151 may acquire sensor information SDT11 including not only the above but sensor information detected by various sensors, such as an acceleration sensor.

図2の例では、取得部151は、ユーザU1のタップ操作に関するセンサ情報SDT101を取得する。例えば、取得部151は、センサ部16に含まれる各種のセンサにより検知されたセンサ情報を含むセンサ情報SDT101を取得する。   In the example of FIG. 2, the acquisition unit 151 acquires sensor information SDT 101 related to the tap operation of the user U1. For example, the acquisition unit 151 acquires sensor information SDT 101 including sensor information detected by various sensors included in the sensor unit 16.

また、取得部151は、学習データLD1を取得する。例えば、取得部151は、データDT101〜DT104等を含む学習データLD1を取得する。例えば、取得部151は、センサ情報SDT101に正解情報RDT101が対応付けられたデータDT101を取得する。例えば、取得部151は、センサ情報SDT102に正解情報RDT102が対応付けられたデータDT102を取得する。   Further, the acquisition unit 151 acquires the learning data LD1. For example, the acquisition unit 151 acquires learning data LD1 including data DT101 to DT104 and the like. For example, the acquisition unit 151 acquires data DT101 in which the correct answer information RDT101 is associated with the sensor information SDT101. For example, the acquisition unit 151 acquires data DT102 in which the correct answer information RDT102 is associated with the sensor information SDT102.

(生成部152)
生成部152は、種々の生成を行なう。生成部152は、各種モデルを生成する。生成部152は、種々の学習を行なう。生成部152は、学習により判定処理に用いるモデルを生成する。例えば、生成部152は、学習データ記憶部141に記憶された学習データを用いて、モデル情報記憶部142に示すようなモデルを生成する。例えば、生成部152は、取得部131により取得された学習データに基づいて、所定の操作に続けて次の操作が行われるかの判定に用いられるモデルを生成する。例えば、生成部152は、端末装置の画面に対するユーザの所定の操作に関するセンサ情報と、所定の操作に続けて次の操作が行われたかを示す正解情報とを含む学習データに基づいて、所定の操作に続けて次の操作が行われるかの判定用いられるモデルを生成する。
(Generation unit 152)
The generation unit 152 performs various generations. The generation unit 152 generates various models. The generation unit 152 performs various learning. The generation unit 152 generates a model used for determination processing by learning. For example, using the learning data stored in the learning data storage unit 141, the generation unit 152 generates a model as shown in the model information storage unit 142. For example, based on the learning data acquired by the acquisition unit 131, the generation unit 152 generates a model used to determine whether the next operation is performed following the predetermined operation. For example, the generation unit 152 performs predetermined processing based on learning data including sensor information on a predetermined operation of the user on the screen of the terminal device and correct answer information indicating whether the next operation is performed following the predetermined operation. A model is generated that is used to determine whether the next operation will be performed following the operation.

例えば、生成部152は、モデルM1、M2、M3等を生成し、生成したモデルM1、M2、M3等をモデル情報記憶部142に格納する。なお、生成部152は、いかなる学習アルゴリズムを用いてモデルM1、M2、M3等を生成してもよい。例えば、生成部152は、ニューラルネットワーク(neural network)、サポートベクターマシン(SVM)、クラスタリング、強化学習等の学習アルゴリズムを用いてモデルM1、M2、M3等を生成する。一例として、生成部152がニューラルネットワークを用いてモデルM1、M2、M3等を生成する場合、モデルM1、M2、M3等は、一以上のニューロンを含む入力層と、一以上のニューロンを含む中間層と、一以上のニューロンを含む出力層とを有する。   For example, the generation unit 152 generates the models M1, M2, M3, etc., and stores the generated models M1, M2, M3, etc. in the model information storage unit 142. The generation unit 152 may generate the models M1, M2, M3 and the like using any learning algorithm. For example, the generation unit 152 generates the models M1, M2, M3, and the like using a learning algorithm such as a neural network, a support vector machine (SVM), clustering, reinforcement learning, and the like. As an example, when the generation unit 152 generates the models M1, M2, M3, etc. using a neural network, the models M1, M2, M3, etc. have an input layer including one or more neurons and an intermediate layer including one or more neurons. It has a layer and an output layer that includes one or more neurons.

生成部152は、モデルを生成し、生成したモデルをモデル情報記憶部142に格納する。具体的には、生成部152は、端末装置10の画面に対するユーザの所定の操作に関するセンサ情報が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力されたセンサ情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、ユーザが所定の操作に続けて次の操作を行うかの判定に用いられるスコアの値を出力層から出力するモデルを生成する。   The generation unit 152 generates a model, and stores the generated model in the model information storage unit 142. Specifically, the generation unit 152 is an input layer to which sensor information regarding a predetermined operation of the user on the screen of the terminal device 10 is input, an output layer, and any layer from the input layer to the output layer, An output for the sensor information input to the input layer, including a first element belonging to a layer other than the output layer, and a second element whose value is calculated based on the first element and the weight of the first element Used to determine whether the user performs the next operation following the predetermined operation by performing an operation based on the first element and the weight of the first element with each element belonging to each layer other than the layer as the first element Generate a model that outputs the value of the calculated score from the output layer.

図2の例では、生成部152は、モデル情報記憶部142に示すように、モデルM1等を生成する。例えば、生成部152は、学習データ記憶部141中のデータDT101〜DT104等を学習データ(教師データ)として、学習を行なうことにより、モデルを生成する。例えば、生成部152は、ユーザのタップ操作に対応するセンサ情報に関する特徴量を用いて、モデルを生成する。例えば、生成部152は、圧力情報や面積情報や時間情報に関する特徴量を用いて、モデルを生成する。このように、生成部152は、ユーザのタップ操作に対応する特徴を学習し、そのタップ操作に続けて次のタップ操作が行われるかを判定するモデルを生成する。図2の例では、生成部152は、ユーザのタップ操作での圧力情報や面積情報や時間情報等に関する特徴を学習し、そのタップ操作に続けて次のタップ操作が行われるかを判定するモデルを生成する。   In the example of FIG. 2, as illustrated in the model information storage unit 142, the generation unit 152 generates the model M1 and the like. For example, the generation unit 152 generates a model by performing learning with the data DT101 to DT104 and the like in the learning data storage unit 141 as learning data (teacher data). For example, the generation unit 152 generates a model using the feature amount related to sensor information corresponding to the user's tap operation. For example, the generation unit 152 generates a model using feature information related to pressure information, area information, and time information. Thus, the generation unit 152 learns the feature corresponding to the tap operation of the user, and generates a model that determines whether the next tap operation is performed following the tap operation. In the example of FIG. 2, the generation unit 152 is a model that learns features related to pressure information, area information, time information, and the like in the tap operation of the user, and determines whether the next tap operation is performed following the tap operation. Generate

例えば、生成部152は、学習データLD1を用いてモデルM1を生成する。例えば、生成部152は、正解情報RDT101が次のタップ操作が無いこと、すなわちタップ操作がシングルタップであることを示す場合、モデルM1にデータDT101に含まれるセンサ情報が入力された場合に、モデルM1が出力するスコアが「0」に近づくように、学習処理を行う。例えば、生成部152は、データDT101のセンサ情報SDT101がモデルM1に入力された場合に、モデルM1が出力するスコアが「0」に近づくように、学習処理を行う。   For example, the generation unit 152 generates the model M1 using the learning data LD1. For example, when the correctness information RDT 101 indicates that there is no next tap operation, that is, when the tap operation is a single tap, the generation unit 152 generates a model when sensor information included in the data DT 101 is input to the model M1. The learning process is performed so that the score output by M1 approaches “0”. For example, when the sensor information SDT101 of the data DT101 is input to the model M1, the generation unit 152 performs learning processing so that the score output from the model M1 approaches “0”.

また、例えば、生成部152は、正解情報RDT102が次のタップ操作が有ること、すなわちタップ操作がダブルタップの1回目のタップであることを示す場合、モデルM1にデータDT102に含まれるセンサ情報が入力された場合に、モデルM1が出力するスコアが「1」に近づくように、学習処理を行う。例えば、生成部152は、データDT102のセンサ情報SDT102がモデルM1に入力された場合に、モデルM1が出力するスコアが「1」に近づくように、学習処理を行う。   Further, for example, when the generation unit 152 indicates that the correct answer information RDT 102 has the next tap operation, that is, the tap operation is the first tap of the double tap, the sensor information included in the data DT102 is included in the model M1. When it is input, learning processing is performed so that the score output by the model M1 approaches "1". For example, when the sensor information SDT 102 of the data DT 102 is input to the model M1, the generation unit 152 performs learning processing so that the score output from the model M1 approaches “1”.

なお、取得部151によりモデル情報が外部の情報処理装置から取得される場合、制御部15は、生成部152を有しなくてもよい。   In addition, when model information is acquired from an external information processing apparatus by the acquisition unit 151, the control unit 15 may not have the generation unit 152.

(判定部153)
判定部153は、種々の情報を判定する。例えば、判定部153は、記憶部14に記憶された各種情報を用いて種々の情報を判定する。判定部153は、学習データ記憶部141やモデル情報記憶部142やコンテンツ情報記憶部143に記憶された各種情報を用いて種々の情報を判定する。例えば、判定部153は、取得部151により取得された各種情報を用いて種々の情報を判定する。
(Judging unit 153)
The determination unit 153 determines various information. For example, the determination unit 153 determines various information using the various information stored in the storage unit 14. The determination unit 153 determines various information using various information stored in the learning data storage unit 141, the model information storage unit 142, and the content information storage unit 143. For example, the determination unit 153 determines various information using the various information acquired by the acquisition unit 151.

また、判定部153は、取得部151により取得されたセンサ情報に基づいて、所定の操作に続けて次の操作が行われるかを判定する。例えば、判定部153は、センサ情報を入力とするモデルを用いて、所定の操作に続けて次の操作が行われるかを判定する。例えば、判定部153は、センサ情報の入力によりモデルが出力するスコアに基づいて、所定の操作に続けて次の操作が行われるかを判定する。例えば、判定部153は、センサ情報と所定の閾値との比較に基づいて、所定の操作に続けて次の操作が行われるかを判定する。   Further, based on the sensor information acquired by the acquisition unit 151, the determination unit 153 determines whether the next operation is performed following the predetermined operation. For example, the determination unit 153 determines whether a next operation is performed following a predetermined operation, using a model having sensor information as an input. For example, the determination unit 153 determines whether the next operation is performed following the predetermined operation based on the score output by the model in response to the input of the sensor information. For example, the determination unit 153 determines whether the next operation is performed following the predetermined operation based on the comparison between the sensor information and the predetermined threshold.

例えば、判定部153は、センサ情報に基づいて、所定の操作に続けて、一の種別の次の操作が行われるかを判定する。判定部153は、センサ情報に基づいて、タップ操作に続けて、端末装置10の画面に対するユーザの次のタップ操作が行われるかを判定する。判定部153は、センサ情報に基づいて、タップ操作によりユーザにタッチされた画面の位置から所定の範囲内において、タップ操作に続けて、次のタップ操作が行われるかを判定する。例えば、判定部153は、センサ情報に基づいて、タップ操作がシングルタップの操作であるか、ダブルタップにおける1回目の操作であるかを判定する。   For example, the determination unit 153 determines, based on the sensor information, whether or not the next operation of one type is performed following the predetermined operation. The determination unit 153 determines whether the user's next tap operation on the screen of the terminal device 10 is performed following the tap operation based on the sensor information. The determination unit 153 determines, based on the sensor information, whether or not the next tap operation is performed following the tap operation within a predetermined range from the position of the screen touched by the user by the tap operation. For example, based on the sensor information, the determination unit 153 determines whether the tap operation is a single-tap operation or a first-time double-tap operation.

図1の例では、判定部153は、センサ情報SDT11が入力されたモデルM1が出力したスコアに基づいて、センサ情報SDT11に対応するユーザのタップ操作の後に続けて次のタップ操作が行われるかを判定する。判定部153は、センサ情報SDT11が入力されたモデルM1が出力したスコア「0.2」に基づいて、結果情報RS11に示すように判定する。判定部153は、モデルM1が出力したスコア「0.2」であり閾値「0.6」未満であるため、日時dt11におけるユーザのタップ操作の後に続けて次のタップは無いと判定する。判定部153は、モデルM1が出力したスコア「0.2」であり閾値「0.6」未満であるため、日時dt11におけるユーザのタップ操作はシングルタップであると判定する。   In the example of FIG. 1, the determination unit 153 determines whether the next tap operation is performed after the user's tap operation corresponding to the sensor information SDT11 based on the score output from the model M1 to which the sensor information SDT11 is input. Determine The determination unit 153 determines as shown in the result information RS11 based on the score “0.2” output by the model M1 to which the sensor information SDT11 is input. The determination unit 153 determines that there is no next tap following the tap operation of the user at the date dt11 because the score is “0.2” output by the model M1 and is less than the threshold “0.6”. The determination unit 153 determines that the tap operation by the user at the date dt11 is a single tap, since the score “0.2” output by the model M1 is less than the threshold “0.6”.

図1の例では、判定部153は、センサ情報SDT21が入力されたモデルM1が出力したスコアに基づいて、センサ情報SDT21に対応するユーザのタップ操作の後に続けて次のタップ操作が行われるかを判定する。判定部153は、センサ情報SDT21が入力されたモデルM1が出力したスコア「0.7」に基づいて、結果情報RS11に示すように判定する。判定部153は、モデルM1が出力したスコア「0.7」であり閾値「0.6」以上であるため、日時dt21におけるユーザのタップ操作の後に続けて次のタップが有ると判定する。判定部153は、モデルM1が出力したスコア「0.7」であり閾値「0.6」以上であるため、日時dt21におけるユーザのタップ操作はダブルタップの1回目のタップである可能性が高いと判定する。   In the example of FIG. 1, the determination unit 153 determines whether the next tap operation is performed after the user's tap operation corresponding to the sensor information SDT 21 based on the score output by the model M1 to which the sensor information SDT 21 is input. Determine The determination unit 153 determines as shown in the result information RS11 based on the score “0.7” output by the model M1 to which the sensor information SDT21 is input. The determination unit 153 determines that there is a next tap following the tap operation of the user at the date dt 21 because the score is “0.7” output by the model M 1 and is equal to or more than the threshold value “0.6”. Since the determination unit 153 is the score "0.7" output by the model M1 and is equal to or more than the threshold value "0.6", the user's tap operation at the date dt21 is highly likely to be the first double tap. It is determined that

(送信部154)
送信部154は、外部の情報処理装置へ種々の情報を送信する。送信部154は、各種情報を端末装置10へ送信する。送信部154は、記憶部14に記憶された各種情報を外部の情報処理装置へ送信する。送信部154は、各種情報を端末装置10へ送信する。送信部154は、取得部151により取得された各種情報を外部の情報処理装置へ送信する。送信部154は、判定部153により判定された各種情報を外部の情報処理装置へ送信する。送信部154は、サーバ装置50へ各種情報を送信する。送信部154は、学習データ記憶部141やモデル情報記憶部142やコンテンツ情報記憶部143に記憶された各種情報をサーバ装置50へ送信してもよい。
(Transmission unit 154)
The transmission unit 154 transmits various information to an external information processing apparatus. The transmission unit 154 transmits various types of information to the terminal device 10. The transmission unit 154 transmits various information stored in the storage unit 14 to an external information processing apparatus. The transmission unit 154 transmits various types of information to the terminal device 10. The transmitting unit 154 transmits various information acquired by the acquiring unit 151 to an external information processing apparatus. The transmission unit 154 transmits various information determined by the determination unit 153 to an external information processing apparatus. The transmission unit 154 transmits various types of information to the server device 50. The transmission unit 154 may transmit various types of information stored in the learning data storage unit 141, the model information storage unit 142, and the content information storage unit 143 to the server device 50.

(表示部155)
表示部155は、出力部13を介して各種情報を表示する。例えば、表示部155は、電子書籍等のコンテンツを画面に表示する。また、表示部155は、判定部153による判定結果に応じて、画面の表示を変更する
(Display section 155)
The display unit 155 displays various information via the output unit 13. For example, the display unit 155 displays content such as an electronic book on a screen. Further, the display unit 155 changes the display of the screen according to the determination result by the determination unit 153.

図1の例では、表示部155は、判定結果に応じて画面の表示を変更する。表示部155は、日時dt11におけるユーザのタップ操作はシングルタップであると判定したため、画面の表示をページPG1の次にページPG2を表示するように変更する。これにより、表示部155は、日時dt12において、端末装置10−12に示すように、画面にページPG2を表示する。   In the example of FIG. 1, the display unit 155 changes the display of the screen according to the determination result. Since the display unit 155 determines that the user's tap operation at the date and time dt11 is a single tap, the display unit 155 changes the display of the screen to display the page PG2 next to the page PG1. Thereby, the display unit 155 displays the page PG2 on the screen at the date and time dt12 as shown in the terminal device 10-12.

図1の例では、表示部155は、判定結果に応じて画面の表示を変更する。表示部155は、日時dt21のタップ操作と、日時dt22のタップ操作とは、ダブルタップであると判定したため、画面の表示をページPG1において、ユーザU1がダブルタップした位置を中心として拡大表示するように変更する。これにより、表示部155は、日時dt23において、端末装置10−23に示すように、ユーザU1がダブルタップした位置付近(ページPG1の左下側)を拡大表示する。   In the example of FIG. 1, the display unit 155 changes the display of the screen according to the determination result. Since the display unit 155 determines that the tap operation of the date and time dt21 and the tap operation of the date and time dt22 are double taps, the display of the screen is enlarged and displayed on the page PG1 centering on the position where the user U1 double tapped. Change to As a result, as shown in the terminal device 10-23, the display unit 155 magnifies and displays the vicinity of the position where the user U1 double-taps (lower left side of the page PG1) at the date and time dt23.

なお、上述した制御部15による判定処理等の処理は、所定のアプリケーションにより行われる場合、制御部15の各部は、例えば、所定のアプリケーションにより実現されてもよい。例えば、制御部15による判定処理等の処理は、外部の情報処理装置から受信した制御情報により実現されてもよい。   When the processing such as the determination processing by the control unit 15 described above is performed by a predetermined application, each unit of the control unit 15 may be realized by, for example, a predetermined application. For example, processing such as determination processing by the control unit 15 may be realized by control information received from an external information processing apparatus.

(センサ部16)
センサ部16は、所定の情報を検知する。例えば、センサ部16は、端末装置10に対するユーザの操作に関する種々の情報を検知するセンサを含む。例えば、センサ部16は、圧力センサを含む。例えば、センサ部16は、ユーザが画面に接触する圧力を示す圧力情報を検知するセンサを含む。例えば、センサ部16は、画面におけるユーザの接触範囲(座標)を検知するセンサを含む。例えば、センサ部16は、画面においてユーザが接触する位置を示す位置情報を検知するセンサを含む。例えば、センサ部16は、画面においてユーザが接触する面積を示す面積情報を検知するセンサを含む。
(Sensor unit 16)
The sensor unit 16 detects predetermined information. For example, the sensor unit 16 includes a sensor that detects various information related to the user's operation on the terminal device 10. For example, the sensor unit 16 includes a pressure sensor. For example, the sensor unit 16 includes a sensor that detects pressure information indicating the pressure at which the user touches the screen. For example, the sensor unit 16 includes a sensor that detects the contact range (coordinates) of the user on the screen. For example, the sensor unit 16 includes a sensor that detects position information indicating a position where the user touches on the screen. For example, the sensor unit 16 includes a sensor that detects area information indicating an area where a user touches on the screen.

例えば、センサ部16は、加速度センサを含む。例えば、センサ部16は、ユーザによる所定の操作の際の端末装置10の加速度情報を検知するセンサを含む。例えば、センサ部16は、ユーザによる端末装置10の画面への接触を検知するセンサやタイマー等を含む。例えば、センサ部16は、ユーザによる端末装置10の画面への接触から、接触の解除までの時間を示す時間情報を検知するために用いるセンサを含む。   For example, the sensor unit 16 includes an acceleration sensor. For example, the sensor unit 16 includes a sensor that detects acceleration information of the terminal device 10 at the time of a predetermined operation by the user. For example, the sensor unit 16 includes a sensor, a timer, or the like that detects a touch on the screen of the terminal device 10 by the user. For example, the sensor unit 16 includes a sensor used to detect time information indicating the time from the touch on the screen of the terminal device 10 by the user to the release of the touch.

また、センサ部16には、上記に限らず、種々のセンサが含まれてもよい。例えば、センサ部16は、端末装置10外の情報を検知するセンサを含んでもよい。例えば、センサ部16は、GPSセンサによって実現される。なお、センサ部16は、複数であってもよい。なお、センサ部16は、判定処理に用いる情報を検知可能であれば、どのようなセンサであってもよい。例えば、端末装置10は、カメラ機能により撮像された画像情報を判定処理に用いる場合、センサ部16としてカメラを有してもよい。また、端末装置10の位置情報をセンサ情報として取得する場合、通信を行っている基地局の位置情報や、WiFi(登録商標)(Wireless Fidelity)の電波を用いて推定された端末装置10の位置情報を取得してもよい。   The sensor unit 16 may include various sensors as well as the above. For example, the sensor unit 16 may include a sensor that detects information outside the terminal device 10. For example, the sensor unit 16 is realized by a GPS sensor. The sensor unit 16 may be plural. The sensor unit 16 may be any sensor as long as it can detect information used for the determination process. For example, the terminal device 10 may have a camera as the sensor unit 16 when using image information captured by a camera function for determination processing. In addition, when acquiring position information of the terminal device 10 as sensor information, the position of the terminal device 10 estimated using position information of a base station performing communication or radio waves of WiFi (registered trademark) (Wireless Fidelity) Information may be acquired.

なお、センサ部16における上記の各種情報を検知するセンサは共通のセンサであってもよいし、各々異なるセンサにより実現されてもよい。   The sensor which detects the above-mentioned various information in sensor part 16 may be a common sensor, and may be realized by each different sensor.

〔4.判定処理のフロー〕
次に、図8を用いて、実施形態に係る判定処理の手順について説明する。図8は、実施形態に係る判定処理の一例を示すフローチャートである。
[4. Flow of judgment processing]
Next, the procedure of the determination process according to the embodiment will be described with reference to FIG. FIG. 8 is a flowchart illustrating an example of the determination process according to the embodiment.

図8に示すように、端末装置10は、端末装置10の画面に対するユーザの所定の操作に関するセンサ情報を取得する(ステップS101)。図1の例では、端末装置10は、ユーザU1のタップ操作に関するセンサ情報SDT11やセンサ情報SDT21を取得する。   As shown in FIG. 8, the terminal device 10 acquires sensor information regarding a predetermined operation of the user on the screen of the terminal device 10 (step S101). In the example of FIG. 1, the terminal device 10 acquires sensor information SDT11 and sensor information SDT21 related to the tap operation of the user U1.

そして、端末装置10は、センサ情報に基づいて、所定の操作に続けて次の操作が行われるかを判定する(ステップS102)。例えば、端末装置10は、センサ情報に含まれる各種別のセンサ値と、各種別に対応する閾値とを比較することにより、ユーザのタップ操作に続けて、次のタップ操作が行われるかを判定する。例えば、端末装置10は、センサ値のうち、対応する閾値との比較が所定の条件を満たすセンサ値の数が所定数(例えば1や3等)以上である場合、ユーザのタップ操作に続けて、次のタップ操作が行われないと判定する。   Then, the terminal device 10 determines whether the next operation is performed following the predetermined operation based on the sensor information (step S102). For example, the terminal device 10 determines whether the next tap operation is performed following the user's tap operation by comparing the various types of sensor values included in the sensor information with the corresponding threshold values. . For example, if the number of sensor values that satisfy the predetermined condition among the sensor values is greater than or equal to a predetermined number (for example, 1 or 3), the terminal device 10 continues the user's tap operation. , And determine that the next tap operation is not performed.

例えば、端末装置10は、センサ値のうち、対応する閾値との比較が所定の条件を満たすセンサ値の数が2以上である場合、ユーザのタップ操作に続けて、次のタップ操作が行われないと判定してもよい。例えば、端末装置10は、種別「圧力」のセンサ値(圧力値)が種別「圧力」の閾値以上であり、種別「接触時間」のセンサ値(時間)が種別「接触時間」の閾値以上である場合、ユーザのタップ操作に続けて、次のタップ操作が行われないと判定する。例えば、端末装置10は、種別「圧力」のセンサ値(圧力値)が種別「圧力」の閾値以上であり、種別「接触時間」のセンサ値(時間)が種別「接触時間」の閾値以上である場合、ユーザの操作がシングルタップであると判定する。   For example, in the terminal device 10, when the number of sensor values satisfying the predetermined threshold value among the sensor values is two or more, the next tap operation is performed following the user's tap operation. It may be determined that there is no. For example, in the terminal device 10, the sensor value (pressure value) of the type "pressure" is equal to or higher than the threshold of the type "pressure", and the sensor value (time) of the type "contact time" is equal to or higher than the threshold of the type "contact time". If there is, it is determined that the next tap operation is not performed following the user's tap operation. For example, in the terminal device 10, the sensor value (pressure value) of the type "pressure" is equal to or higher than the threshold of the type "pressure", and the sensor value (time) of the type "contact time" is equal to or higher than the threshold of the type "contact time". If there is, it is determined that the user's operation is a single tap.

例えば、端末装置10は、センサ値のうち、対応する閾値との比較が所定の条件を満たすセンサ値の数が2未満である場合、ユーザのタップ操作に続けて、次のタップ操作が行われると判定してもよい。例えば、端末装置10は、1つのセンサ値のみが対応する閾値未満である場合、ユーザのタップ操作に続けて、次のタップ操作が行われると判定する。例えば、端末装置10は、種別「圧力」のセンサ値(圧力値)が種別「圧力」の閾値以上である場合、ユーザの操作がシングルタップではないと判定する。   For example, in the terminal device 10, when the number of sensor values satisfying the predetermined condition for comparison with the corresponding threshold among the sensor values is less than 2, the next tap operation is performed following the user's tap operation. It may be determined that For example, if only one sensor value is less than the corresponding threshold value, the terminal device 10 determines that the next tap operation is to be performed following the user's tap operation. For example, when the sensor value (pressure value) of the type "pressure" is equal to or more than the threshold of the type "pressure", the terminal device 10 determines that the user's operation is not a single tap.

そして、端末装置10は、判定結果に応じて、画面の表示を変更する(ステップS103)。例えば、端末装置10は、ユーザU1の操作がシングルタップであると判定した場合、シングルタップの操作に対応する画面の表示に変更する。   Then, the terminal device 10 changes the display of the screen according to the determination result (step S103). For example, when the terminal device 10 determines that the operation of the user U1 is a single tap, the terminal device 10 changes the display to a screen corresponding to the single tap operation.

また、例えば、端末装置10は、ユーザU1の操作がシングルタップではないと判定した場合、所定の待機期間内におけるユーザの操作有無に応じて画面の表示に変更する。例えば、端末装置10は、ユーザU1の操作がシングルタップではないと判定し、所定の待機期間TM内にユーザが2回目のタップ操作を行った場合、ダブルタップの操作に対応する画面の表示に変更する。例えば、端末装置10は、ユーザU1の操作がシングルタップではないと判定したが、所定の待機期間TM内にユーザが2回目のタップ操作を行わなかった場合、シングルタップの操作に対応する画面の表示に変更する。   Further, for example, when the terminal device 10 determines that the operation of the user U1 is not a single tap, the terminal device 10 changes the display to a screen according to the presence or absence of the user's operation within a predetermined standby period. For example, when the terminal device 10 determines that the operation of the user U1 is not a single tap and the user performs a second tap operation within a predetermined standby period TM, the display of the screen corresponding to the double tap operation is performed. change. For example, when the terminal device 10 determines that the operation of the user U1 is not a single tap, but the user does not perform the second tap operation within a predetermined standby period TM, a screen corresponding to the single tap operation is displayed. Change to display.

〔5.生成処理のフロー〕
次に、図9を用いて、実施形態に係る判定システム1による生成処理の手順について説明する。図9は、実施形態に係る生成処理の一例を示すフローチャートである。
[5. Flow of generation process]
Next, the procedure of the generation process by the determination system 1 according to the embodiment will be described with reference to FIG. FIG. 9 is a flowchart illustrating an example of the generation process according to the embodiment.

図9に示すように、端末装置10は、学習データを取得する(ステップS201)。例えば、端末装置10は、学習データ記憶部141から学習データを取得する。   As shown in FIG. 9, the terminal device 10 acquires learning data (step S201). For example, the terminal device 10 acquires learning data from the learning data storage unit 141.

その後、端末装置10は、学習データに基づきモデルを生成する(ステップS202)。図2の例では、端末装置10は、学習データ記憶部141から学習データを用いてモデルM1を生成する。   Thereafter, the terminal device 10 generates a model based on the learning data (step S202). In the example of FIG. 2, the terminal device 10 generates a model M1 using learning data from the learning data storage unit 141.

〔6.モデルを用いた判定処理のフロー〕
次に、図10を用いて、実施形態に係る判定システム1による判定処理の手順について説明する。図10は、実施形態に係る判定処理の一例を示すフローチャートである。具体的には、図10は、モデルを用いた判定処理の一例を示すフローチャートである。
[6. Flow of judgment processing using model]
Next, the procedure of the determination process by the determination system 1 according to the embodiment will be described with reference to FIG. FIG. 10 is a flowchart illustrating an example of the determination process according to the embodiment. Specifically, FIG. 10 is a flowchart illustrating an example of determination processing using a model.

図10に示すように、端末装置10は、端末装置10の画面に対するユーザの所定の操作に関するセンサ情報を取得する(ステップS301)。図1の例では、端末装置10は、ユーザU1のタップ操作に関するセンサ情報SDT11やセンサ情報SDT21を取得する。   As shown in FIG. 10, the terminal device 10 acquires sensor information regarding a predetermined operation of the user on the screen of the terminal device 10 (step S301). In the example of FIG. 1, the terminal device 10 acquires sensor information SDT11 and sensor information SDT21 related to the tap operation of the user U1.

そして、端末装置10は、センサ情報とモデルを用いて、所定の操作に続けて次の操作が行われるかを判定する(ステップS302)。例えば、端末装置10は、学習データ記憶部141に記憶されたモデルM1を用いて、ユーザU1のタップ操作に続けて、次のタップ操作が行われるかを判定する。図1の例では、端末装置10は、センサ情報SDT11をモデルM1に入力し、モデルM1が出力したスコアが所定の閾値未満である場合、ユーザU1のタップ操作に続けて、次のタップ操作が行われないと判定する。例えば、端末装置10は、センサ情報SDT11をモデルM1に入力し、モデルM1が出力したスコアが所定の閾値未満である場合、ユーザU1の操作がシングルタップであると判定する。   Then, the terminal device 10 uses the sensor information and the model to determine whether the next operation is performed following the predetermined operation (step S302). For example, using the model M1 stored in the learning data storage unit 141, the terminal device 10 determines whether the next tap operation is performed following the tap operation of the user U1. In the example of FIG. 1, the terminal device 10 inputs the sensor information SDT11 to the model M1, and if the score output by the model M1 is less than a predetermined threshold, the next tap operation is the tap operation of the user U1. Determine that it is not done. For example, the terminal device 10 inputs the sensor information SDT11 to the model M1, and determines that the operation of the user U1 is a single tap when the score output by the model M1 is less than a predetermined threshold.

また、図1の例では、端末装置10は、センサ情報SDT21をモデルM1に入力し、モデルM1が出力したスコアが所定の閾値以上である場合、ユーザU1のタップ操作に続けて、次のタップ操作が行われると判定する。例えば、端末装置10は、センサ情報SDT21をモデルM1に入力し、モデルM1が出力したスコアが所定の閾値以上である場合、ユーザU1の操作がシングルタップではないと判定する。すなわち、端末装置10は、センサ情報SDT21をモデルM1に入力し、モデルM1が出力したスコアが所定の閾値以上である場合、ユーザU1の操作がダブルタップの可能性があると判定する。   Further, in the example of FIG. 1, when the terminal device 10 inputs the sensor information SDT21 to the model M1 and the score output by the model M1 is equal to or more than a predetermined threshold, the tap operation of the user U1 follows the next tap It determines that the operation is to be performed. For example, the terminal device 10 inputs the sensor information SDT21 to the model M1, and determines that the operation of the user U1 is not a single tap when the score output by the model M1 is equal to or greater than a predetermined threshold. That is, the terminal device 10 inputs the sensor information SDT21 to the model M1, and when the score output from the model M1 is equal to or more than a predetermined threshold, determines that the operation of the user U1 has a possibility of double tap.

そして、端末装置10は、判定結果に応じて、画面の表示を変更する(ステップS303)。例えば、端末装置10は、ユーザU1の操作がシングルタップであると判定した場合、シングルタップの操作に対応する画面の表示に変更する。   Then, the terminal device 10 changes the display of the screen according to the determination result (step S303). For example, when the terminal device 10 determines that the operation of the user U1 is a single tap, the terminal device 10 changes the display to a screen corresponding to the single tap operation.

また、例えば、端末装置10は、ユーザU1の操作がシングルタップではないと判定した場合、所定の期間(待機期間TM)内におけるユーザの操作有無に応じて画面の表示に変更する。例えば、端末装置10は、ユーザU1の操作がシングルタップではないと判定し、待機期間TM内にユーザが2回目のタップ操作を行った場合、ダブルタップの操作に対応する画面の表示に変更する。例えば、端末装置10は、ユーザU1の操作がシングルタップではないと判定したが、待機期間TM内にユーザが2回目のタップ操作を行わなかった場合、シングルタップの操作に対応する画面の表示に変更する。   Further, for example, when the terminal device 10 determines that the operation of the user U1 is not a single tap, the terminal device 10 changes the display to a screen according to the presence or absence of the user's operation in a predetermined period (standby period TM). For example, when the terminal device 10 determines that the operation of the user U1 is not a single tap and the user performs a second tap operation within the standby period TM, the terminal device 10 changes the display to the screen corresponding to the double tap operation. . For example, when the terminal device 10 determines that the operation of the user U1 is not a single tap, but the user does not perform the second tap operation within the standby period TM, the display of the screen corresponding to the single tap operation is performed. change.

〔7.シングルタップとダブルタップの判定処理のフロー〕
次に、図11を用いて、実施形態に係る判定システム1による判定処理の手順について説明する。図11は、実施形態に係る判定処理の一例を示すフローチャートである。具体的には、図11は、シングルタップとダブルタップの判定処理の一例を示すフローチャートである。
[7. Flow of judgment processing of single tap and double tap]
Next, the procedure of the determination process by the determination system 1 according to the embodiment will be described with reference to FIG. FIG. 11 is a flowchart illustrating an example of the determination process according to the embodiment. Specifically, FIG. 11 is a flowchart showing an example of determination processing of single tap and double tap.

図11に示すように、端末装置10は、ユーザの一のタップ操作に関するセンサ情報を取得する(ステップS401)。   As illustrated in FIG. 11, the terminal device 10 acquires sensor information related to one tap operation of the user (step S401).

そして、端末装置10は、センサ情報が条件を満たすかを判定する(ステップS402)。例えば、端末装置10は、センサ情報に含まれる各種別のセンサ値と、各種別に対応する閾値とを比較することにより、センサ情報が条件を満たすかを判定する。例えば、端末装置10は、センサ値のうち、対応する閾値との比較が所定の条件を満たすセンサ値の数が所定数(例えば1や3等)以上である場合、センサ情報が条件を満たすと判定する。   Then, the terminal device 10 determines whether the sensor information satisfies the condition (step S402). For example, the terminal device 10 determines whether the sensor information satisfies the condition by comparing various types of sensor values included in the sensor information with the corresponding threshold values. For example, in the terminal device 10, when the number of sensor values satisfying the predetermined condition among the sensor values is greater than or equal to a predetermined number (for example, 1 or 3), the sensor information satisfies the condition judge.

図11の例では、センサ情報が条件を満たすかを判定に用いる所定数が「2」である場合を一例に説明する。この場合、例えば、端末装置10は、センサ値のうち、対応する閾値との比較が所定の条件を満たすセンサ値の数が2以上である場合、センサ情報が条件を満たすと判定してもよい。例えば、端末装置10は、種別「圧力」のセンサ値(圧力値)が種別「圧力」の閾値以上であり、種別「接触面積」のセンサ値が種別「接触面積」の閾値以上である場合、センサ情報が条件を満たすと判定する。   In the example of FIG. 11, the case where the predetermined number used for determination whether sensor information satisfy | fills conditions is "2" is demonstrated to an example. In this case, for example, the terminal device 10 may determine that the sensor information satisfies the condition when the number of sensor values satisfying the predetermined condition among the sensor values satisfies a predetermined condition. . For example, in the terminal device 10, the sensor value (pressure value) of the type "pressure" is equal to or greater than the threshold of the type "pressure", and the sensor value of the type "contact area" is equal to or greater than the threshold of the type "contact area". It is determined that the sensor information satisfies the condition.

端末装置10は、センサ情報が条件を満たすと判定した場合(ステップS402:Yes)、後述するステップS407、S408の処理を行う。   When the terminal device 10 determines that the sensor information satisfies the condition (step S402: Yes), the terminal device 10 performs the processing of steps S407 and S408 described later.

また、例えば、端末装置10は、センサ値のうち、対応する閾値との比較が所定の条件を満たすセンサ値の数が2未満である場合、センサ情報が条件を満たさないと判定してもよい。例えば、端末装置10は、1つのセンサ値のみが対応する閾値未満である場合、ユーザのタップ操作に続けて、センサ情報が条件を満たさないと判定する。例えば、端末装置10は、種別「接触面積」のセンサ値が種別「接触面積」の閾値以上である場合、センサ情報が条件を満たさないと判定する。   Also, for example, the terminal device 10 may determine that the sensor information does not satisfy the condition if the number of sensor values satisfying the predetermined condition among the sensor values is less than 2 as a comparison with the corresponding threshold value. . For example, if only one sensor value is less than the corresponding threshold, the terminal device 10 determines that the sensor information does not satisfy the condition following the user's tap operation. For example, when the sensor value of the type “contact area” is equal to or more than the threshold of the type “contact area”, the terminal device 10 determines that the sensor information does not satisfy the condition.

端末装置10は、センサ情報が条件を満たさないと判定した場合(ステップS402:No)、端末装置10は、所定の時間(待機時間)内に次のタップ操作が有るかどうかを判定する(ステップS403)。   If the terminal device 10 determines that the sensor information does not satisfy the condition (step S402: No), the terminal device 10 determines whether there is a next tap operation within a predetermined time (standby time) (step S403).

また、所定の時間(待機時間)内に次のタップ操作が有った場合(ステップS403:Yes)、端末装置10は、ダブルタップの操作が行われたと判定する(ステップS404)。そして、端末装置10は、ダブルタップの操作に対応する画面の表示に変更する(ステップS405)。例えば、端末装置10は、所定の待機期間TM内にユーザが2回目のタップ操作を行った場合、ダブルタップの操作に対応する画面の表示に変更する。   When the next tap operation is performed within the predetermined time (standby time) (step S403: Yes), the terminal device 10 determines that the double tap operation has been performed (step S404). Then, the terminal device 10 changes the display to a screen corresponding to the double tap operation (step S405). For example, when the user performs the second tap operation within the predetermined standby period TM, the terminal device 10 changes the display to a screen corresponding to the double tap operation.

また、次のタップ操作が無い場合(ステップS403:No)、端末装置10は、一のタップ操作から所定の期間が経過したかどうかを判定する(ステップS406)。例えば、端末装置10は、一のタップ操作が行われた時点から待機期間TMの間、次のタップ操作が行われたかを判定する。一のタップ操作から所定の期間が経過していない場合(ステップS406:No)、端末装置10は、ステップS403に戻って処理を繰りかえす。   Moreover, when there is no next tap operation (step S403: No), the terminal device 10 determines whether a predetermined period has elapsed since one tap operation (step S406). For example, the terminal device 10 determines whether the next tap operation has been performed during the standby period TM since the time when the one tap operation has been performed. When the predetermined period has not elapsed from one tap operation (step S406: No), the terminal device 10 returns to step S403 and repeats the processing.

また、一のタップ操作から所定の期間が経過した場合(ステップS406:Yes)、端末装置10は、ステップS407の処理を行う。端末装置10は、ユーザが一のタップ操作を行った時点から次のタップが行われずに、所定の期間が経過した場合、シングルタップの操作が行われたと判定する(ステップS407)。そして、端末装置10は、シンブルタップの操作に対応する画面の表示に変更する(ステップS408)。   Moreover, when the predetermined period has passed since one tap operation (step S406: Yes), the terminal device 10 performs the process of step S407. The terminal device 10 determines that the operation of the single tap has been performed when the predetermined period has elapsed without performing the next tap since the time when the user performed one tap operation (step S407). Then, the terminal device 10 changes the display to a screen corresponding to the operation of the thimble tap (step S408).

例えば、端末装置10は、センサ情報が条件を満たすと判定した場合(ステップS402:Yes)や、一のタップ操作から所定の期間が経過した場合(ステップS406:Yes)、シンブルタップの操作に対応する画面の表示に変更する。   For example, when the terminal device 10 determines that the sensor information satisfies the condition (step S402: Yes), or when a predetermined period has elapsed since one tap operation (step S406: Yes), the terminal device 10 supports the thimble tap operation. Change to the screen display.

〔8.効果〕
上述してきたように、実施形態に係る端末装置10は、取得部151と、判定部153とを有する。取得部151は、端末装置10の画面に対するユーザの所定の操作に関するセンサ情報を取得する。また、判定部153は、取得部151により取得されたセンサ情報に基づいて、所定の操作に続けて次の操作が行われるかを判定する。
[8. effect〕
As described above, the terminal device 10 according to the embodiment includes the acquisition unit 151 and the determination unit 153. The acquisition unit 151 acquires sensor information regarding a predetermined operation of the user on the screen of the terminal device 10. Further, based on the sensor information acquired by the acquisition unit 151, the determination unit 153 determines whether the next operation is performed following the predetermined operation.

このように、実施形態に係る端末装置10は、端末装置10の画面に対するユーザの所定の操作に関するセンサ情報に基づいて、所定の操作に続けて次の操作が行われるかを判定することにより、ユーザの操作性の向上を可能にすることができる。例えば、端末装置10は、所定の操作が行われたタイミングで、その所定の操作が完結した操作であるか、次の操作が行われる操作なのかを判定する。そのため、端末装置10は、ユーザの所定の操作に続けて次の操作が行われないと判定した場合、待機期間の経過を待つことなく、ユーザの操作に応じて所定の処理(例えば、画面の表示変更等)を行う。このように、端末装置10は、待機時間を経過する前に判定することができるため、ユーザビリティが向上させることができる。また、端末装置10は、ユーザが待機期間内に連続して所定の操作を行った場合であっても、センサ情報に基づいて判定することにより、各所定の操作を個別の完結した操作として、対応する処理を行うことができる。したがって、端末装置10は、ユーザが連続で所定の操作をしたい場合に、他の操作だと判定することによる、誤判定を抑制することができる。   As described above, the terminal device 10 according to the embodiment determines whether the next operation is performed following the predetermined operation based on the sensor information on the predetermined operation of the user on the screen of the terminal device 10. It is possible to improve the operability of the user. For example, the terminal device 10 determines, at a timing when a predetermined operation is performed, whether the operation is a completion of the predetermined operation or an operation in which the next operation is performed. Therefore, when the terminal device 10 determines that the next operation is not performed following the user's predetermined operation, the terminal device 10 does not wait for the elapse of the standby period, and performs predetermined processing (for example, screen display) according to the user's operation. Change display etc.). As described above, since the terminal device 10 can make a determination before the standby time has elapsed, usability can be improved. In addition, even when the user performs a predetermined operation continuously in the standby period, the terminal device 10 determines each predetermined operation as an individual completed operation by determining based on the sensor information. A corresponding process can be performed. Therefore, the terminal device 10 can suppress an erroneous determination due to the determination that the user performs another predetermined operation when the user continuously performs the predetermined operation.

また、実施形態に係る端末装置10において、取得部151は、ユーザが画面に接触する圧力を示す圧力情報を含むセンサ情報を取得する。   In addition, in the terminal device 10 according to the embodiment, the acquisition unit 151 acquires sensor information including pressure information indicating the pressure with which the user touches the screen.

このように、実施形態に係る端末装置10は、ユーザが画面に接触する圧力を示す圧力情報を含むセンサ情報を取得することにより、ユーザの操作性の向上を可能にすることができる。   Thus, the terminal device 10 according to the embodiment can improve the operability of the user by acquiring sensor information including pressure information indicating the pressure with which the user touches the screen.

また、実施形態に係る端末装置10において、取得部151は、画面においてユーザが接触する面積を示す面積情報を含むセンサ情報を取得する。   In addition, in the terminal device 10 according to the embodiment, the acquisition unit 151 acquires sensor information including area information indicating an area where a user touches on the screen.

このように、実施形態に係る端末装置10は、画面においてユーザが接触する面積を示す面積情報を含むセンサ情報を取得することにより、ユーザの操作性の向上を可能にすることができる。   As described above, the terminal device 10 according to the embodiment can improve the operability of the user by acquiring the sensor information including the area information indicating the area touched by the user on the screen.

また、実施形態に係る端末装置10において、取得部151は、画面においてユーザが接触する位置を示す位置情報を含むセンサ情報を取得する。   In addition, in the terminal device 10 according to the embodiment, the acquisition unit 151 acquires sensor information including position information indicating a position at which the user touches on the screen.

このように、実施形態に係る端末装置10は、画面においてユーザが接触する位置を示す位置情報を含むセンサ情報を取得することにより、ユーザの操作性の向上を可能にすることができる。   As described above, the terminal device 10 according to the embodiment can improve the operability of the user by acquiring the sensor information including the position information indicating the position where the user touches on the screen.

また、実施形態に係る端末装置10において、取得部151は、ユーザによる所定の操作の際の端末装置の加速度情報を含むセンサ情報を取得する。   In addition, in the terminal device 10 according to the embodiment, the acquisition unit 151 acquires sensor information including acceleration information of the terminal device at the time of a predetermined operation by the user.

このように、実施形態に係る端末装置10は、ユーザによる所定の操作の際の端末装置の加速度情報を含むセンサ情報を取得することにより、ユーザの操作性の向上を可能にすることができる。   As described above, the terminal device 10 according to the embodiment can improve the operability of the user by acquiring the sensor information including the acceleration information of the terminal device at the time of the predetermined operation by the user.

また、実施形態に係る端末装置10において、取得部151は、ユーザによる画面への接触から、接触の解除までの時間を示す時間情報を含むセンサ情報を取得する。   In addition, in the terminal device 10 according to the embodiment, the acquisition unit 151 acquires sensor information including time information indicating the time from the touch on the screen by the user to the release of the touch.

このように、実施形態に係る端末装置10は、ユーザによる画面への接触から、接触の解除までの時間を示す時間情報を含むセンサ情報を取得することにより、ユーザの操作性の向上を可能にすることができる。   Thus, the terminal device 10 according to the embodiment can improve the operability of the user by acquiring sensor information including time information indicating the time until the release of the touch after the user touches the screen. can do.

また、実施形態に係る端末装置10において、判定部153は、センサ情報を入力とするモデルを用いて、所定の操作に続けて次の操作が行われるかを判定する。   In addition, in the terminal device 10 according to the embodiment, the determination unit 153 determines whether a next operation is performed following a predetermined operation using a model having sensor information as an input.

このように、実施形態に係る端末装置10は、センサ情報を入力とするモデルを用いて、所定の操作に続けて次の操作が行われるかを判定することにより、ユーザの操作性の向上を可能にすることができる。   As described above, the terminal device 10 according to the embodiment improves the operability of the user by determining whether the next operation is performed following the predetermined operation using the model in which the sensor information is input. It can be enabled.

また、実施形態に係る端末装置10において、判定部153は、センサ情報の入力によりモデルが出力するスコアに基づいて、所定の操作に続けて次の操作が行われるかを判定する。   In addition, in the terminal device 10 according to the embodiment, the determination unit 153 determines whether the next operation is performed following the predetermined operation based on the score output by the model in response to the input of the sensor information.

このように、実施形態に係る端末装置10は、センサ情報の入力によりモデルが出力するスコアに基づいて、所定の操作に続けて次の操作が行われるかを判定することにより、ユーザの操作性の向上を可能にすることができる。   As described above, the terminal device 10 according to the embodiment determines the operability of the user by determining whether the next operation is performed following the predetermined operation based on the score output by the model in response to the input of the sensor information. Can be improved.

また、実施形態に係る端末装置10において、判定部153は、センサ情報と所定の閾値との比較に基づいて、所定の操作に続けて次の操作が行われるかを判定する。   Further, in the terminal device 10 according to the embodiment, the determination unit 153 determines whether the next operation is performed following the predetermined operation based on the comparison between the sensor information and the predetermined threshold.

このように、実施形態に係る端末装置10は、センサ情報と所定の閾値との比較に基づいて、所定の操作に続けて次の操作が行われるかを判定することにより、ユーザの操作性の向上を可能にすることができる。   As described above, the terminal device 10 according to the embodiment determines the operability of the user by determining whether the next operation is performed following the predetermined operation based on the comparison between the sensor information and the predetermined threshold. It is possible to improve.

また、実施形態に係る端末装置10は、表示部155を有する。表示部155は、判定部153による判定結果に応じて、画面の表示を変更する。   In addition, the terminal device 10 according to the embodiment includes the display unit 155. The display unit 155 changes the display of the screen according to the determination result by the determination unit 153.

このように、実施形態に係る端末装置10は、判定結果に応じて、画面の表示を変更することにより、ユーザの操作性の向上を可能にすることができる。   Thus, the terminal device 10 according to the embodiment can improve the operability of the user by changing the display of the screen according to the determination result.

また、実施形態に係る端末装置10において、取得部151は、一の種別の所定の操作に関するセンサ情報を取得する。判定部153は、センサ情報に基づいて、所定の操作に続けて、一の種別の次の操作が行われるかを判定する。   In addition, in the terminal device 10 according to the embodiment, the acquisition unit 151 acquires sensor information regarding a predetermined operation of one type. The determination unit 153 determines whether or not the next operation of one type is performed following the predetermined operation based on the sensor information.

このように、実施形態に係る端末装置10は、センサ情報に基づいて、所定の操作に続けて、一の種別の次の操作が行われるかを判定することにより、ユーザの操作性の向上を可能にすることができる。例えば、端末装置10は、一の種別の操作が行われたタイミングで、その操作が完結した操作であるか、次に同種別の操作が行われる操作なのかを判定する。そのため、端末装置10は、その操作が完結した操作であるか、続けて同種別の操作が行われる操作なのかを判定する。そのため、端末装置10は、ユーザの一の種別の操作に続けて同種別の操作が行われないと判定した場合、待機期間の経過を待つことなく、ユーザの操作に応じて所定の処理(例えば、画面の表示変更等)を行う。このように、端末装置10は、待機時間を経過する前に判定することができるため、ユーザビリティが向上させることができる。また、端末装置10は、ユーザが待機期間内に連続して同種別の操作を行った場合であっても、センサ情報に基づいて判定することにより、各同種別の操作を個別の完結した操作として、対応する処理を行うことができる。したがって、端末装置10は、ユーザが連続で同種別の操作をしたい場合に、他の操作だと判定することによる、誤判定を抑制することができる。   As described above, the terminal device 10 according to the embodiment improves the operability of the user by determining whether the next operation of one type is performed following the predetermined operation based on the sensor information. It can be enabled. For example, at the timing at which one type of operation is performed, the terminal device 10 determines whether the operation is an operation that has been completed or an operation in which another operation of the same type is performed next. Therefore, the terminal device 10 determines whether the operation is a completed operation or an operation in which the same type of operation is subsequently performed. Therefore, when the terminal device 10 determines that the same type of operation is not performed following the user's one type of operation, the terminal device 10 performs predetermined processing (for example, according to the user's operation without waiting for the elapse of the standby period). , Change the screen display etc.). As described above, since the terminal device 10 can make a determination before the standby time has elapsed, usability can be improved. In addition, even when the user performs the same type of operation continuously in the standby period, the terminal device 10 determines the operation of each type of the same type individually by determining based on the sensor information. Corresponding processing can be performed. Therefore, the terminal device 10 can suppress an erroneous determination due to the determination that the user has made another operation when the user wants to perform the same type of operation continuously.

また、実施形態に係る端末装置10において、取得部151は、端末装置10の画面に対するユーザのタップ操作に関するセンサ情報を取得する。判定部153は、センサ情報に基づいて、タップ操作に続けて、端末装置10の画面に対するユーザの次のタップ操作が行われるかを判定する。   In addition, in the terminal device 10 according to the embodiment, the acquisition unit 151 acquires sensor information related to the tap operation of the user on the screen of the terminal device 10. The determination unit 153 determines whether the user's next tap operation on the screen of the terminal device 10 is performed following the tap operation based on the sensor information.

このように、実施形態に係る端末装置10は、センサ情報に基づいて、タップ操作に続けて、端末装置10の画面に対するユーザの次のタップ操作が行われるかを判定することにより、ユーザの操作性の向上を可能にすることができる。例えば、端末装置10は、タップ操作が行われたタイミングで、その操作が完結した操作であるか、次にタップ操作が行われる操作なのかを判定する。そのため、端末装置10は、その操作が完結した操作であるか、続けてタップ操作が行われる操作なのかを判定する。そのため、端末装置10は、ユーザのタップ操作に続けてタップ操作が行われないと判定した場合、待機期間の経過を待つことなく、ユーザの操作に応じて所定の処理(例えば、画面の表示変更等)を行う。このように、端末装置10は、待機時間を経過する前に判定することができるため、ユーザビリティが向上させることができる。また、端末装置10は、ユーザが待機期間内に連続してタップ操作を行った場合であっても、センサ情報に基づいて判定することにより、各タップ操作を個別の完結した操作として、対応する処理を行うことができる。したがって、端末装置10は、ユーザが連続でタップ操作をしたい場合に、他の操作だと判定することによる、誤判定を抑制することができる。   As described above, the terminal device 10 according to the embodiment determines whether the user performs the next tap operation on the screen of the terminal device 10 following the tap operation based on the sensor information. It is possible to improve the quality. For example, at the timing when the tap operation is performed, the terminal device 10 determines whether the operation is a completed operation or an operation for which the tap operation is performed next. Therefore, the terminal device 10 determines whether the operation is a completed operation or an operation in which a tap operation is subsequently performed. Therefore, when the terminal device 10 determines that the tap operation is not performed following the user's tap operation, predetermined processing (for example, display change of the screen is performed according to the user operation without waiting for the elapse of the standby period). Etc.). As described above, since the terminal device 10 can make a determination before the standby time has elapsed, usability can be improved. In addition, even when the user continuously performs the tap operation within the standby period, the terminal device 10 responds to each tap operation as an individual completed operation by making a determination based on the sensor information. Processing can be performed. Therefore, the terminal device 10 can suppress an erroneous determination due to the determination that the user operates another tap operation continuously.

また、実施形態に係る端末装置10において、取得部151は、端末装置10の画面に対するユーザのタップ操作に関するセンサ情報を取得する。判定部153は、センサ情報に基づいて、タップ操作によりユーザにタッチされた画面の位置から所定の範囲内において、タップ操作に続けて、次のタップ操作が行われるかを判定する。   In addition, in the terminal device 10 according to the embodiment, the acquisition unit 151 acquires sensor information related to the tap operation of the user on the screen of the terminal device 10. The determination unit 153 determines, based on the sensor information, whether or not the next tap operation is performed following the tap operation within a predetermined range from the position of the screen touched by the user by the tap operation.

このように、実施形態に係る端末装置10は、センサ情報に基づいて、タップ操作によりユーザにタッチされた画面の位置から所定の範囲内において、タップ操作に続けて、次のタップ操作が行われるかを判定することにより、ユーザの操作性の向上を可能にすることができる。   Thus, the terminal device 10 according to the embodiment performs the next tap operation following the tap operation within a predetermined range from the position of the screen touched by the user by the tap operation based on the sensor information. By determining whether or not the user can improve the operability.

また、実施形態に係る端末装置10において、判定部153は、センサ情報に基づいて、タップ操作がシングルタップの操作であるか、ダブルタップにおける1回目の操作であるかを判定する。   In addition, in the terminal device 10 according to the embodiment, the determination unit 153 determines whether the tap operation is a single tap operation or a first operation in a double tap, based on the sensor information.

このように、実施形態に係る端末装置10は、センサ情報に基づいて、タップ操作がシングルタップの操作であるか、ダブルタップにおける1回目の操作であるかを判定することにより、ユーザの操作性の向上を可能にすることができる。例えば、端末装置10は、1回目のタップ操作が行われたタイミングで、そのタップ操作が完結した操作(シングルタップ)であるか、次の操作が行われる操作なのかを判定する。そのため、端末装置10は、ユーザの操作がシングルタップであると判定した場合、待機期間の経過を待つことなく、ユーザのシングルタップの操作に応じて所定の処理(例えば、画面の表示変更等)を行う。このように、端末装置10は、待機時間を経過する前に判定することができるため、ユーザビリティが向上させることができる。また、端末装置10は、ユーザが待機期間内に連続してシングルタップの操作を行った場合であっても、センサ情報に基づいて判定することにより、各シングルタップの操作をシングルタップの操作として、対応する処理を行うことができる。したがって、端末装置10は、ユーザが連続でシングルタップしたい場合に、ダブルタップだと判定することによる、誤判定を抑制することができる。   As described above, the terminal device 10 according to the embodiment determines the operability of the user by determining whether the tap operation is the single tap operation or the first operation in the double tap based on the sensor information. Can be improved. For example, at the timing when the first tap operation is performed, the terminal device 10 determines whether the operation (a single tap) in which the tap operation is completed or an operation in which the next operation is performed. Therefore, when the terminal device 10 determines that the user's operation is a single tap, predetermined processing (for example, screen display change, etc.) according to the user's single tap operation without waiting for the elapse of the standby period. I do. As described above, since the terminal device 10 can make a determination before the standby time has elapsed, usability can be improved. In addition, even when the user performs a single tap operation continuously in the standby period, the terminal device 10 determines each single tap operation as a single tap operation by making a determination based on sensor information. , Corresponding processing can be performed. Therefore, the terminal device 10 can suppress an erroneous determination due to the determination that the user has double taps in a case where the user single taps continuously.

〔9.プログラム〕
上述してきた端末装置10による処理は、本願に係る判定プログラムにより実現される。例えば、端末装置10に係る判定部153は、端末装置10が有するCPUやMPU等によって、判定プログラムがRAMを作業領域として、判定プログラムに係る判定手順が実行されることにより実現される。例えば、端末装置10に係る判定部153は、端末装置10が有するCPUやMPU等によって、判定プログラムがRAMを作業領域として、判定プログラムに係る付与手順が実行されることにより実現される。端末装置10に係る他の処理部も同様に、判定プログラムによる各手順が実行されることにより実現される。例えば、判定プログラムは電子書籍アプリに含まれてもよい。
[9. program〕
The processing by the terminal device 10 described above is realized by the determination program according to the present application. For example, the determination unit 153 according to the terminal device 10 is realized by the determination program according to the determination program according to the determination program with the RAM as a work area by a CPU, an MPU, or the like included in the terminal device 10. For example, the determination unit 153 according to the terminal device 10 is realized by the CPU, the MPU, or the like included in the terminal device 10, with the determination program executing the assignment procedure according to the determination program with the RAM as a work area. Similarly, other processing units related to the terminal device 10 are realized by executing each procedure according to the determination program. For example, the determination program may be included in the electronic book application.

なお、本願に係る端末装置10が実行する処理は、必ずしも全てが判定プログラムによって実現されるものでなくてもよい。例えば、センサ部16は、端末装置10における各種のセンサ情報を検知する。このとき、端末装置10における各種のセンサ情報等は、端末装置10が有するOS(Operating System)によって検知されてもよい。すなわち、判定プログラム自体が、上述してきたような端末装置10で実行される処理を実行するのではなく、OSによって取得されたデータ(例えば、端末装置10が有するセンサや回路等を利用して取得されるデータ)を受け取ったり、検知したりすることにより、上述してきた端末装置10の処理を実現するようにしてもよい。また、端末装置10が有するOSに判定プログラムが含まれてもよい。   In addition, the process which the terminal device 10 which concerns on this application performs may not necessarily be implement | achieved entirely by the determination program. For example, the sensor unit 16 detects various sensor information in the terminal device 10. At this time, various types of sensor information and the like in the terminal device 10 may be detected by an operating system (OS) that the terminal device 10 has. That is, the determination program itself does not execute the process executed by the terminal device 10 as described above, but acquires data acquired by the OS (for example, using a sensor or a circuit of the terminal device 10) The above-described processing of the terminal device 10 may be realized by receiving or detecting data). Further, the OS included in the terminal device 10 may include a determination program.

〔10.ハードウェア構成〕
上述してきた実施形態に係る端末装置10は、例えば図12に示すような構成のコンピュータ1000によって実現される。図12は、端末装置及びサーバ装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[10. Hardware configuration]
The terminal device 10 according to the embodiment described above is realized by, for example, a computer 1000 configured as shown in FIG. FIG. 12 is a hardware configuration diagram showing an example of a computer that implements the functions of the terminal device and the server device. The computer 1000 includes a CPU 1100, a RAM 1200, a ROM 1300, an HDD 1400, a communication interface (I / F) 1500, an input / output interface (I / F) 1600, and a media interface (I / F) 1700.

CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。   The CPU 1100 operates based on a program stored in the ROM 1300 or the HDD 1400 to control each part. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 starts up, a program depending on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、所定のネットワーク(例えば図3中のネットワークN)を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを所定のネットワークNを介して他の機器へ送信する。   The HDD 1400 stores a program executed by the CPU 1100, data used by the program, and the like. The communication interface 1500 receives data from another device via a predetermined network (for example, the network N in FIG. 3) and sends the data to the CPU 1100, and transmits data generated by the CPU 1100 to another device via the predetermined network N. Send.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。   The CPU 1100 controls an output device such as a display or a printer and an input device such as a keyboard or a mouse via the input / output interface 1600. The CPU 1100 acquires data from an input device via the input / output interface 1600. The CPU 1100 also outputs the generated data to the output device via the input / output interface 1600.

メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。   The media interface 1700 reads a program or data stored in the recording medium 1800 and provides the CPU 1100 with the program via the RAM 1200. The CPU 1100 loads such a program from the recording medium 1800 onto the RAM 1200 via the media interface 1700 and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a digital versatile disc (DVD) or a phase change rewritable disc (PD), a magneto-optical recording medium such as a magneto-optical disk (MO), a tape medium, a magnetic recording medium, or a semiconductor memory. Etc.

例えば、コンピュータ1000が実施形態に係る端末装置10として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムまたはデータ(例えば、モデルM1、M2、M3等)を実行することにより、制御部15の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムまたはデータ(例えば、モデルM1、M2、M3等)を記録媒体1800から読み取って実行するが、他の例として、他の装置から所定のネットワークを介してこれらのプログラムを取得してもよい。   For example, when the computer 1000 functions as the terminal device 10 according to the embodiment, the CPU 1100 of the computer 1000 performs control by executing a program or data (for example, models M1, M2, M3, etc.) loaded on the RAM 1200. The function of the unit 15 is realized. The CPU 1100 of the computer 1000 reads these programs or data (for example, the models M1, M2, M3, etc.) from the recording medium 1800 and executes them, but as another example, these may be read from other devices via a predetermined network. You may get a program.

以上、本願の実施形態および変形例のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。   Although some of the embodiments and modifications of the present application have been described above in detail based on the drawings, these are merely examples, and various aspects can be obtained based on the knowledge of those skilled in the art, including the aspects described in the lines of the disclosure of the invention. It is possible to carry out the present invention in other forms that have been modified and improved.

〔11.その他〕
また、上記各実施形態および変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[11. Other]
In addition, all or part of the processing described as being performed automatically among the processing described in each of the above-described embodiments and modifications may be performed manually, or may be performed manually. All or part of the described processing can also be performed automatically in a known manner. In addition, information including processing procedures, specific names, various data and parameters shown in the above-mentioned documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。   Further, each component of each device illustrated is functionally conceptual, and does not necessarily have to be physically configured as illustrated. That is, the specific form of the distribution and integration of each device is not limited to the illustrated one, and all or a part thereof may be functionally or physically dispersed in any unit depending on various loads, usage conditions, etc. It can be integrated and configured.

また、上述してきた各実施形態および変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。   Moreover, it is possible to combine suitably each embodiment and modification which were mentioned above in the range which does not contradict process content.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。   In addition, the "section (module, unit)" described above can be read as "means" or "circuit". For example, the acquisition unit can be read as an acquisition unit or an acquisition circuit.

10 端末装置
141 学習データ記憶部
142 モデル情報記憶部
143 コンテンツ情報記憶部
15 制御部
151 取得部
152 生成部
153 判定部
154 送信部
155 表示部
16 センサ部
50 サーバ装置
10 terminal device 141 learning data storage unit 142 model information storage unit 143 content information storage unit 15 control unit 151 acquisition unit 152 generation unit 153 determination unit 154 transmission unit 155 display unit 16 sensor unit 50 server device

Claims (18)

端末装置により実行される判定プログラムであって、
前記端末装置の画面に対するユーザの所定の操作に関するセンサ情報を取得する取得手順と、
前記取得手順により取得された前記センサ情報に基づいて、前記所定の操作に続けて次の操作が行われるかを判定する判定手順と、
を端末装置に実行させることを特徴とする判定プログラム。
A determination program executed by a terminal device, wherein
An acquisition procedure for acquiring sensor information on a predetermined operation of a user on the screen of the terminal device;
A determination procedure of determining whether the next operation is performed following the predetermined operation based on the sensor information acquired by the acquisition procedure;
A determination program that causes a terminal device to execute.
前記取得手順は、
前記ユーザが前記画面に接触する圧力を示す圧力情報を含む前記センサ情報を取得する
ことを特徴とする請求項1に記載の判定プログラム。
The acquisition procedure is
The determination program according to claim 1, wherein the sensor information including pressure information indicating a pressure at which the user contacts the screen is acquired.
前記取得手順は、
前記画面において前記ユーザが接触する面積を示す面積情報を含む前記センサ情報を取得する
ことを特徴とする請求項1または請求項2に記載の判定プログラム。
The acquisition procedure is
The determination program according to claim 1 or 2, wherein the sensor information including area information indicating an area touched by the user on the screen is acquired.
前記取得手順は、
前記画面において前記ユーザが接触する位置を示す位置情報を含む前記センサ情報を取得する
ことを特徴とする請求項1〜3のいずれか1項に記載の判定プログラム。
The acquisition procedure is
The determination program according to any one of claims 1 to 3, wherein the sensor information including position information indicating a position where the user touches on the screen is acquired.
前記取得手順は、
前記ユーザによる前記所定の操作の際の前記端末装置の加速度情報を含む前記センサ情報を取得する
ことを特徴とする請求項1〜4のいずれか1項に記載の判定プログラム。
The acquisition procedure is
The determination program according to any one of claims 1 to 4, wherein the sensor information including acceleration information of the terminal device at the time of the predetermined operation by the user is acquired.
前記取得手順は、
前記ユーザによる前記画面への接触から、前記接触の解除までの時間を示す時間情報を含む前記センサ情報を取得する
ことを特徴とする請求項1〜5のいずれか1項に記載の判定プログラム。
The acquisition procedure is
The determination program according to any one of claims 1 to 5, wherein the sensor information including time information indicating a time from the touch on the screen by the user to the release of the touch is acquired.
前記判定手順は、
前記センサ情報を入力とするモデルを用いて、前記所定の操作に続けて前記次の操作が行われるかを判定する
ことを特徴とする請求項1〜6のいずれか1項に記載の判定プログラム。
The determination procedure is
The determination program according to any one of claims 1 to 6, wherein it is determined whether the next operation is performed following the predetermined operation using a model having the sensor information as an input. .
前記判定手順は、
前記センサ情報の入力により前記モデルが出力するスコアに基づいて、前記所定の操作に続けて前記次の操作が行われるかを判定する
ことを特徴とする請求項7に記載の判定プログラム。
The determination procedure is
The determination program according to claim 7, wherein whether or not the next operation is performed following the predetermined operation is determined based on a score output by the model based on the input of the sensor information.
前記判定手順は、
前記センサ情報と所定の閾値との比較に基づいて、前記所定の操作に続けて前記次の操作が行われるかを判定する
ことを特徴とする請求項1〜8のいずれか1項に記載の判定プログラム。
The determination procedure is
The method according to any one of claims 1 to 8, wherein it is determined whether the next operation is performed following the predetermined operation based on a comparison between the sensor information and a predetermined threshold. Judgment program.
前記判定手順による判定結果に応じて、前記画面の表示を変更する表示手順、
を端末装置にさらに実行させることを特徴とする請求項1〜9のいずれか1項に記載の判定プログラム。
A display procedure for changing the display of the screen according to the determination result by the determination procedure;
The determination program according to any one of claims 1 to 9, further causing the terminal device to execute.
前記取得手順は、
一の種別の前記所定の操作に関する前記センサ情報を取得し、
前記判定手順は、
前記センサ情報に基づいて、前記所定の操作に続けて、前記一の種別の前記次の操作が行われるかを判定する
ことを特徴とする請求項1〜10のいずれか1項に記載の判定プログラム。
The acquisition procedure is
Acquiring the sensor information related to the predetermined operation of one type;
The determination procedure is
The determination according to any one of claims 1 to 10, wherein whether the next operation of the one type is performed is determined following the predetermined operation based on the sensor information. program.
前記取得手順は、
前記端末装置の画面に対するユーザのタップ操作に関する前記センサ情報を取得し、
前記判定手順は、
前記センサ情報に基づいて、前記タップ操作に続けて、前記端末装置の画面に対するユーザの次のタップ操作が行われるかを判定する
ことを特徴とする請求項11に記載の判定プログラム。
The acquisition procedure is
Acquiring the sensor information related to the tap operation of the user on the screen of the terminal device;
The determination procedure is
The determination program according to claim 11, wherein it is determined, based on the sensor information, whether or not a user's next tap operation on the screen of the terminal device is performed following the tap operation.
前記取得手順は、
前記端末装置の画面に対するユーザのタップ操作に関する前記センサ情報を取得し、
前記判定手順は、
前記センサ情報に基づいて、前記タップ操作により前記ユーザにタッチされた前記画面の位置から所定の範囲内において、前記タップ操作に続けて、前記次のタップ操作が行われるかを判定する
ことを特徴とする請求項12に記載の判定プログラム。
The acquisition procedure is
Acquiring the sensor information related to the tap operation of the user on the screen of the terminal device;
The determination procedure is
Based on the sensor information, it is determined whether the next tap operation is performed following the tap operation within a predetermined range from the position of the screen touched by the user by the tap operation. The judgment program according to claim 12, wherein the judgment is made.
前記判定手順は、
前記センサ情報に基づいて、前記タップ操作がシングルタップの操作であるか、ダブルタップにおける1回目の操作であるかを判定する
ことを特徴とする請求項12または請求項13に記載の判定プログラム。
The determination procedure is
The determination program according to claim 12 or 13, wherein it is determined based on the sensor information whether the tap operation is a single tap operation or a first operation in a double tap.
端末装置が実行する判定方法であって、
前記端末装置の画面に対するユーザの所定の操作に関するセンサ情報を取得する取得工程と、
前記取得工程により取得された前記センサ情報に基づいて、前記所定の操作に続けて次の操作が行われるかを判定する判定工程と、
を含むことを特徴とする判定方法。
It is a determination method executed by the terminal device, and
An acquisition step of acquiring sensor information regarding a predetermined operation of a user on the screen of the terminal device;
A determination step of determining whether the next operation is performed following the predetermined operation based on the sensor information acquired in the acquisition step;
A determination method comprising:
端末装置であって、
前記端末装置の画面に対するユーザの所定の操作に関するセンサ情報を取得する取得部と、
前記取得部により取得された前記センサ情報に基づいて、前記所定の操作に続けて次の操作が行われるかを判定する判定部と、
を備えることを特徴とする端末装置。
A terminal device,
An acquisition unit configured to acquire sensor information on a predetermined operation of a user on a screen of the terminal device;
A determination unit that determines whether the next operation is performed following the predetermined operation based on the sensor information acquired by the acquisition unit;
A terminal device comprising:
端末装置の画面に対するユーザの所定の操作に関するセンサ情報と、前記所定の操作に続けて次の操作が行われたかを示す正解情報とを含む学習データであって、
入力層と出力層とを有し、前記入力層から前記出力層までのいずれかの層であって前記出力層以外の層に属する第1要素と、前記第1要素と前記第1要素の重みとに基づいて値が算出される第2要素と、前記入力層に入力された前記センサ情報に対し、前記出力層以外の各層に属する各要素を前記第1要素として、前記第1要素と前記第1要素の重みとに基づく演算を行うモデルの前記入力層に入力されることにより、演算結果を示す出力値を前記モデルの前記出力層から出力させ、前記正解情報と前記出力値との比較に基づく学習を行なうよう、
端末装置を機能させるための学習データ。
The learning data includes sensor information on a predetermined operation of the user on the screen of the terminal device, and correct answer information indicating whether the next operation is performed following the predetermined operation,
A first element having an input layer and an output layer, which is any layer from the input layer to the output layer and belongs to a layer other than the output layer, and a weight of the first element and the first element And a second element whose value is calculated based on the first and second elements, each element belonging to each layer other than the output layer for the sensor information input to the input layer as the first element. An output value indicating a calculation result is output from the output layer of the model by being input to the input layer of the model that performs calculation based on the weight of the first element, and comparison between the correct answer information and the output value is performed. To do learning based on
Learning data to make the terminal function.
端末装置の画面に対するユーザの所定の操作に関するセンサ情報が入力される入力層と、
出力層と、
前記入力層から前記出力層までのいずれかの層であって前記出力層以外の層に属する第1要素と、
前記第1要素と前記第1要素の重みとに基づいて値が算出される第2要素と、を含み、
前記入力層に入力された前記センサ情報に対し、前記出力層以外の各層に属する各要素を前記第1要素として、前記第1要素と前記第1要素の重みとに基づく演算を行うことにより、前記ユーザが前記所定の操作に続けて次の操作を行うかの判定に用いられるスコアの値を前記出力層から出力するよう、
端末装置を機能させるモデル。
An input layer to which sensor information on a predetermined operation of the user on the screen of the terminal device is input;
Output layer,
A first element belonging to any layer from the input layer to the output layer and belonging to a layer other than the output layer;
And a second element whose value is calculated based on the first element and the weight of the first element,
By performing, on the sensor information input to the input layer, each element belonging to each layer other than the output layer as the first element, an operation based on the weight of the first element and the weight of the first element is performed. Outputting from the output layer a score value used to determine whether the user performs the next operation following the predetermined operation;
A model that makes the terminal work.
JP2017193061A 2017-10-02 2017-10-02 Determination program, determination method, terminal device, learning data, and model Pending JP2019067214A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017193061A JP2019067214A (en) 2017-10-02 2017-10-02 Determination program, determination method, terminal device, learning data, and model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017193061A JP2019067214A (en) 2017-10-02 2017-10-02 Determination program, determination method, terminal device, learning data, and model

Publications (1)

Publication Number Publication Date
JP2019067214A true JP2019067214A (en) 2019-04-25

Family

ID=66340774

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017193061A Pending JP2019067214A (en) 2017-10-02 2017-10-02 Determination program, determination method, terminal device, learning data, and model

Country Status (1)

Country Link
JP (1) JP2019067214A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021018777A (en) * 2019-07-24 2021-02-15 キヤノン株式会社 Electronic device
JP2021114022A (en) * 2020-01-16 2021-08-05 ヤフー株式会社 Information processing device, information processing method, and information processing program
WO2022030800A1 (en) * 2020-08-03 2022-02-10 삼성전자 주식회사 Electronic device for detecting user input and operating method therefor

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5613314B1 (en) * 2013-11-14 2014-10-22 Jfeシステムズ株式会社 Gesture detection device, gesture detection program, gesture recognition device, and gesture recognition program
JP2015007946A (en) * 2013-06-26 2015-01-15 キヤノン株式会社 Information processing apparatus and control method of the same, program, and recording medium
JP2015087806A (en) * 2013-10-28 2015-05-07 中西 健一 Device and program for viewing electronic book
JP5906345B1 (en) * 2015-08-05 2016-04-20 株式会社Cygames Program, electronic device, system and control method for predicting touch target based on operation history
JP2016531357A (en) * 2013-08-06 2016-10-06 エルジー エレクトロニクス インコーポレイティド Mobile terminal and control method thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015007946A (en) * 2013-06-26 2015-01-15 キヤノン株式会社 Information processing apparatus and control method of the same, program, and recording medium
JP2016531357A (en) * 2013-08-06 2016-10-06 エルジー エレクトロニクス インコーポレイティド Mobile terminal and control method thereof
JP2015087806A (en) * 2013-10-28 2015-05-07 中西 健一 Device and program for viewing electronic book
JP5613314B1 (en) * 2013-11-14 2014-10-22 Jfeシステムズ株式会社 Gesture detection device, gesture detection program, gesture recognition device, and gesture recognition program
JP5906345B1 (en) * 2015-08-05 2016-04-20 株式会社Cygames Program, electronic device, system and control method for predicting touch target based on operation history

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021018777A (en) * 2019-07-24 2021-02-15 キヤノン株式会社 Electronic device
JP2021114022A (en) * 2020-01-16 2021-08-05 ヤフー株式会社 Information processing device, information processing method, and information processing program
JP7317730B2 (en) 2020-01-16 2023-07-31 ヤフー株式会社 Information processing device, information processing method and information processing program
WO2022030800A1 (en) * 2020-08-03 2022-02-10 삼성전자 주식회사 Electronic device for detecting user input and operating method therefor

Similar Documents

Publication Publication Date Title
CN106454720B (en) Method for managing geo-fence and electronic device thereof
US20180329488A1 (en) Audio-visual interaction with user devices
CN104995581B (en) The gestures detection management of electronic equipment
TWI609279B (en) Method for personalizing user interface content, computing apparatus and machine-readable storage medium
US10802613B2 (en) Cross application digital ink repository
KR102481632B1 (en) Electronic device and method for inputting adaptive touch using display in the electronic device
US9256314B2 (en) Input data type profiles
WO2014113586A1 (en) Generating notifications based on user behavior
KR20160088631A (en) Method for controlling display and an electronic device thereof
CN109416676B (en) Method for determining role of electronic device and electronic device thereof
US10048837B2 (en) Target selection on a small form factor display
CN107548568A (en) The system and method that context for functions of the equipments is found
WO2015099891A1 (en) Adapting interface based on usage context
CN107710131A (en) Content-browsing user interface
GB2558050A (en) Generating a compact video feature representation in a digital medium environment
JP2019067214A (en) Determination program, determination method, terminal device, learning data, and model
CN107111470A (en) Browser shows projective technique
JP2015191551A (en) Electronic device
US10936140B2 (en) Method and device for displaying response
JP2019008772A (en) Method and device for inputting characters
KR102526959B1 (en) Electronic device and method for operating the same
US20160110372A1 (en) Method and apparatus for providing location-based social search service
CN107609146B (en) Information display method and device, terminal and server
JP2021119526A (en) Generation device, generation method, data generation program
US20170139847A1 (en) Apparatus and method for providing handoff thereof

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210514

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210910

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210910

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210921

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210928

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20211015

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20211019

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220104

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220329

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20220405

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220412

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20220510

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20220510