JP7314196B2 - TERMINAL DEVICE, TERMINAL DEVICE CONTROL METHOD AND TERMINAL DEVICE CONTROL PROGRAM - Google Patents

TERMINAL DEVICE, TERMINAL DEVICE CONTROL METHOD AND TERMINAL DEVICE CONTROL PROGRAM Download PDF

Info

Publication number
JP7314196B2
JP7314196B2 JP2021070510A JP2021070510A JP7314196B2 JP 7314196 B2 JP7314196 B2 JP 7314196B2 JP 2021070510 A JP2021070510 A JP 2021070510A JP 2021070510 A JP2021070510 A JP 2021070510A JP 7314196 B2 JP7314196 B2 JP 7314196B2
Authority
JP
Japan
Prior art keywords
terminal device
unit
user
image
estimating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021070510A
Other languages
Japanese (ja)
Other versions
JP2022165237A (en
Inventor
香 池松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2021070510A priority Critical patent/JP7314196B2/en
Publication of JP2022165237A publication Critical patent/JP2022165237A/en
Application granted granted Critical
Publication of JP7314196B2 publication Critical patent/JP7314196B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、端末装置、端末装置の制御方法および端末装置の制御プログラムに関する。 The present invention relates to a terminal device, a terminal device control method, and a terminal device control program.

従来、ユーザが所持している端末装置の把持状態を推定して各種コンテンツを提供する技術が提案されている。 Conventionally, there has been proposed a technique for estimating a gripping state of a terminal device owned by a user and providing various contents.

国際公開第2018/105266号WO2018/105266

しかしながら、従来技術においては、ユーザに対してより適切なコンテンツを提供する点でさらなる改善の余地があった。 However, in the conventional technology, there is room for further improvement in terms of providing more appropriate content to users.

本願は、上記に鑑みてなされたものであって、ユーザに対して適切なコンテンツを提供することができる端末装置、端末装置の制御方法および端末装置の制御プログラムを提供することを目的とする。 The present application has been made in view of the above, and an object thereof is to provide a terminal device, a terminal device control method, and a terminal device control program capable of providing appropriate content to a user.

本願に係る端末装置は、取得部と、推定部と、提供部とを備える。前記取得部は、ユーザが所持する端末装置に内蔵されたカメラによって撮像された前記ユーザの角膜を示す角膜画像を取得する。前記推定部は、前記角膜画像のうち、前記角膜で反射する反射領域の画像に基づいて、前記端末装置における前記ユーザの把持状態を推定する。前記提供部は、前記推定部によって推定された前記把持状態に応じたコンテンツを提供する。 A terminal device according to the present application includes an acquisition unit, an estimation unit, and a provision unit. The acquisition unit acquires a corneal image representing the user's cornea captured by a camera incorporated in a terminal device owned by the user. The estimation unit estimates the user's gripping state of the terminal device based on an image of a reflection area reflected by the cornea in the corneal image. The provision unit provides content according to the grip state estimated by the estimation unit.

実施形態の一態様によれば、ユーザに対して適切なコンテンツを提供することができるという効果を奏する。 According to one aspect of the embodiment, there is an effect that appropriate content can be provided to the user.

図1は、実施形態に係る端末装置の制御処理の一例を示す図である。FIG. 1 is a diagram illustrating an example of control processing of a terminal device according to an embodiment. 図2は、実施形態に係る制御システムの一例を示す図である。FIG. 2 is a diagram illustrating an example of a control system according to the embodiment; 図3は、端末装置の機能構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a functional configuration example of a terminal device; 図4は、実施形態に係る端末装置によって実行される処理の一例を示すフローチャートである。FIG. 4 is a flowchart illustrating an example of processing executed by the terminal device according to the embodiment; 図5は、ハードウェア構成の一例を示す図である。FIG. 5 is a diagram illustrating an example of a hardware configuration;

以下に、本願に係る端末装置、端末装置の制御方法および端末装置の制御プログラムを実施するための形態(以下、「実施形態」と記載する)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る端末装置、端末装置の制御方法および端末装置の制御プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Embodiments for implementing a terminal device, a terminal device control method, and a terminal device control program (hereinafter referred to as "embodiments") according to the present application will be described in detail below with reference to the drawings. The terminal device, the method for controlling the terminal device, and the control program for the terminal device according to the present application are not limited to this embodiment. Also, in each of the following embodiments, the same parts are denoted by the same reference numerals, and overlapping descriptions are omitted.

(実施形態)
〔端末装置の制御処理の概要〕
まず、図1を参照して、本開示の例示的な実施形態について詳細に説明する。図1は、実施形態に係る端末装置の制御処理の一例を示す図である。端末装置の制御処理は、実施形態に係る端末装置1が制御方法を実行することで行われる処理である。
(embodiment)
[Overview of terminal device control processing]
First, an exemplary embodiment of the present disclosure will be described in detail with reference to FIG. FIG. 1 is a diagram illustrating an example of control processing of a terminal device according to an embodiment. The terminal device control process is a process performed by the terminal device 1 according to the embodiment executing a control method.

図1では、ユーザが端末装置1を右手で持って(把持して)操作している状況を示している。実施形態に係る端末装置1は、まず、制御処理により、ユーザの角膜で反射した画像に基づいて、端末装置1におけるユーザの把持状態を推定し、推定した把持状態に応じたコンテンツを提供する。 FIG. 1 shows a situation in which the user is holding (gripping) the terminal device 1 with the right hand and operating it. The terminal device 1 according to the embodiment first estimates the gripping state of the user on the terminal device 1 based on the image reflected by the user's cornea by control processing, and provides content according to the estimated gripping state.

具体的には、まず、端末装置1は、端末装置1に内蔵されたカメラ5(図3参照)によって撮像されたユーザの角膜を示す角膜画像を取得する(ステップS1)。角膜画像は、カメラ5によって撮像されたユーザの顔全体の顔画像から角膜の領域を抽出して角膜画像として取得してもよい。 Specifically, first, the terminal device 1 acquires a corneal image showing the user's cornea captured by the camera 5 (see FIG. 3) incorporated in the terminal device 1 (step S1). The corneal image may be acquired as a corneal image by extracting the corneal region from the face image of the entire face of the user captured by the camera 5 .

なお、図1では、ユーザの右目の角膜画像を示しているが、左目の角膜画像であってもよく、両目の角膜画像であってもよい。 Although FIG. 1 shows the corneal image of the user's right eye, the corneal image of the left eye or the corneal images of both eyes may be used.

つづいて、端末装置1は、角膜画像のうち、角膜で反射する反射領域Rの画像に基づいて、端末装置1におけるユーザの把持状態を推定する(ステップS2)。図1に示すように、反射領域Rには、端末装置1の表示部8に起因した形状の明るい領域である表示部領域R1と、ユーザの指(親指)に起因した形状の暗い領域である指領域R2とが含まれる。つまり、端末装置1は、表示部領域R1と、指領域R2との位置関係に基づいてユーザの把持状態を推定する。 Subsequently, the terminal device 1 estimates the user's gripping state of the terminal device 1 based on the image of the reflection region R reflected by the cornea in the corneal image (step S2). As shown in FIG. 1, the reflection region R includes a display region R1, which is a bright region shaped by the display unit 8 of the terminal device 1, and a finger region R2, which is a dark region shaped by the user's finger (thumb). That is, the terminal device 1 estimates the grip state of the user based on the positional relationship between the display area R1 and the finger area R2.

なお、把持状態の推定は、機械学習により生成されたモデルを用いることができるが、かかる点の詳細については後述する。 A model generated by machine learning can be used for estimating the gripping state, and the details of this point will be described later.

図1に示す例では、端末装置1は、ユーザが右手で端末装置1を把持して親指で表示部8をタッチ操作している状態を把持状態として推定する。つまり、推定する把持状態には、ユーザが左右どちらの手で把持しているかの情報に加え、どの指で表示部8を操作しているかの情報が含まれる。なお、把持状態には、さらに、表示部8のどの位置をタッチ操作しているか(タッチ位置、あるいはタッチ座標)の情報が含まれてもよい。 In the example shown in FIG. 1, the terminal device 1 estimates a state in which the user is holding the terminal device 1 with the right hand and performing a touch operation on the display unit 8 with the thumb as the holding state. That is, the estimated grip state includes information about which finger the user is using to operate the display unit 8, in addition to information about which hand the user is gripping with, left or right. The gripping state may further include information about which position on the display unit 8 is being touched (touch position or touch coordinates).

また、端末装置1は、把持状態に加えて、タッチペン等のポインティングデバイスにより表示部8を操作しているかを推定することができるが、かかる点の詳細については後述する。 In addition to the grasping state, the terminal device 1 can also estimate whether the display unit 8 is being operated with a pointing device such as a stylus, which will be described later in detail.

そして、端末装置1は、推定した把持状態に応じたコンテンツを提供する(ステップS3)。図1に示す例では、端末装置1は、表示部8に表示されたアプリケーションのアイコン画像8aの位置を、右下の領域、すなわち、ユーザの右手の親指に近い領域に移動させる。 Then, the terminal device 1 provides content according to the estimated grip state (step S3). In the example shown in FIG. 1, the terminal device 1 moves the position of the icon image 8a of the application displayed on the display unit 8 to the lower right area, that is, the area close to the right thumb of the user.

これにより、ユーザは右手の親指によるアイコン画像8aへのアクセスが容易になるため、端末装置1に対するユーザの操作性を向上させることができる。 This makes it easier for the user to access the icon image 8a with the thumb of the right hand, so that the user's operability of the terminal device 1 can be improved.

このように、実施形態に係る端末装置1によれば、角膜で反射した反射領域Rの画像に基づいてユーザの把持状態を推定することで、把持状態を高精度に推定することができる。そして、把持状態を高精度に推定することで、ユーザに対してより適切なコンテンツを提供することができる。 As described above, according to the terminal device 1 according to the embodiment, by estimating the user's grip state based on the image of the reflection area R reflected by the cornea, the grip state can be estimated with high accuracy. By estimating the gripping state with high accuracy, more appropriate content can be provided to the user.

なお、図1に示す例では、表示部8に表示されたアイコン画像8aの位置を把持状態に応じて移動させるコンテンツを提供する例を示したが、この他にも、推定した把持状態に応じて様々なコンテンツを提供可能である。なお、提供される他のコンテンツの詳細については後述する。 In the example shown in FIG. 1, an example of providing content in which the position of the icon image 8a displayed on the display unit 8 is moved according to the gripping state is shown, but in addition to this, various content can be provided according to the estimated gripping state. The details of other provided content will be described later.

以下、このような制御処理を行う端末装置1について詳細に説明する。 The terminal device 1 that performs such control processing will be described in detail below.

〔制御システム〕
次に、図2を参照して、端末装置1を含むシステムの構成例について説明する。
[Control system]
Next, a configuration example of a system including the terminal device 1 will be described with reference to FIG.

〔制御システムの構成要素〕
図2は、実施形態に係る制御システムSの一例を示す図である。図2に示すように、実施形態に係る制御システムSは、端末装置1と、サーバ装置100とを含む。制御システムSにおいて、端末装置1と、サーバ装置100とはネットワークNを介して接続される。
[Control system components]
FIG. 2 is a diagram showing an example of the control system S according to the embodiment. As shown in FIG. 2, the control system S according to the embodiment includes a terminal device 1 and a server device 100. As shown in FIG. In the control system S, a terminal device 1 and a server device 100 are connected via a network N. FIG.

ネットワークNは、LAN(Local Area Network)、WAN(Wide Area Network)、電話網(携帯電話網、固定電話網等)、地域IP(Internet Protocol)網、インターネット等の通信ネットワークである。ネットワークNには、有線ネットワークが含まれていてもよいし、無線ネットワークが含まれていてもよい。なお、図2では、1台のサーバ装置100を示したが、制御システムSには、複数台のサーバ装置100が含まれてもよい。 The network N is a communication network such as a LAN (Local Area Network), a WAN (Wide Area Network), a telephone network (mobile telephone network, fixed telephone network, etc.), a local IP (Internet Protocol) network, or the Internet. The network N may include wired networks or wireless networks. Although one server device 100 is shown in FIG. 2 , the control system S may include a plurality of server devices 100 .

端末装置1は、上記したように、例えば、スマートデバイス等のユーザ端末である。端末装置1は、ユーザの操作に従って、サーバ装置100から所定のコンテンツの情報を取得することができる。 The terminal device 1 is, for example, a user terminal such as a smart device, as described above. The terminal device 1 can acquire predetermined content information from the server device 100 according to a user's operation.

また、端末装置1は、角膜画像に基づいて、ユーザの把持状態を推定し、推定した把持状態に応じたコンテンツを提供することができる。なお、端末装置1の詳細な機能については後述する。 In addition, the terminal device 1 can estimate the grip state of the user based on the corneal image, and provide content according to the estimated grip state. Note that detailed functions of the terminal device 1 will be described later.

サーバ装置100は、端末装置1に対して各種コンテンツを提供する。例えば、サーバ装置100は、端末装置1にインストールされた各種アプリ(例えば、ポータルアプリ、ニュースアプリ、オークションサイト、天気予報アプリ、ショッピングアプリ、ファイナンス(株価)アプリ、路線検索アプリ、地図提供アプリ、旅行アプリ、飲食店紹介アプリ、ブログ閲覧アプリ等)に表示する情報を端末装置1に配信する装置である。あるいは、サーバ装置100は、ポータルサイト、ニュースサイト、オークションサイト、天気予報サイト、ショッピングサイト、ファイナンス(株価)サイト、路線検索サイト、地図提供サイト、旅行サイト、飲食店紹介サイト、ウェブブログなどに関連する各種情報がタイル状に配置されたウェブページを端末装置1に配信する装置である。また、サーバ装置100は、アプリのデータそのものを配信するサーバであってもよいし、ポータルサイト等のウェブページを配信するサーバであってもよい。 The server device 100 provides various contents to the terminal device 1 . For example, the server device 100 is a device that distributes to the terminal device 1 information to be displayed in various applications installed in the terminal device 1 (for example, a portal application, a news application, an auction site, a weather forecast application, a shopping application, a finance (stock price) application, a route search application, a map providing application, a travel application, a restaurant introduction application, a blog browsing application, etc.). Alternatively, the server device 100 is a device that distributes to the terminal device 1 web pages in which various types of information related to portal sites, news sites, auction sites, weather forecast sites, shopping sites, finance (stock price) sites, route search sites, map providing sites, travel sites, restaurant introduction sites, web blogs, etc. are arranged in tiles. Further, the server device 100 may be a server that distributes application data itself, or may be a server that distributes web pages such as portal sites.

これらのコンテンツは、サーバ装置100が端末装置1に送信する制御情報に基づいて端末装置1の表示部8(図3参照)に表示される。制御情報とは、例えば、端末装置1にインストールされたアプリを制御するプログラムであってもよいし、コンテンツに埋め込まれたプログラムであってもよい。例えば、制御情報は、JavaScript(登録商標)等のスクリプト言語で記載されたプログラムであってもよい。また、制御情報は、スクリプト言語以外のコンピュータ言語で記載された情報であってもよい。例えば、制御情報は、CSS3(Cascading Style Sheets 3)等のスタイルシート言語で記載された情報であってもよい。また、制御情報は、Java(登録商標)、Swift、C言語、C++等のプログラミング言語で記載され、コンパイル等されたプログラムであってもよい。コンテンツ配信サーバ等のサーバから配信されるアプリケーションソフトそのものを制御情報とみなすことも可能である。このとき、コンテンツの情報は、制御情報に含まれていてもよい。なお、最終的に端末装置1がプログラムを実行できるのであれば、制御情報は、コンパイルされたプログラムでなくてもよい。その他、制御情報は、インタプリタ言語(例えば、スクリプト言語)、機械言語、あるいは中間言語の形式で提供されるデータ(プログラム)であってもよい。 These contents are displayed on the display unit 8 (see FIG. 3) of the terminal device 1 based on the control information that the server device 100 transmits to the terminal device 1. FIG. The control information may be, for example, a program that controls an application installed in the terminal device 1, or a program embedded in content. For example, the control information may be a program written in a script language such as JavaScript (registered trademark). Also, the control information may be information written in a computer language other than the script language. For example, the control information may be information written in a style sheet language such as CSS3 (Cascading Style Sheets 3). Also, the control information may be a program written in a programming language such as Java (registered trademark), Swift, C language, C++, and compiled. It is also possible to regard application software itself distributed from a server such as a content distribution server as control information. At this time, the content information may be included in the control information. Note that the control information does not have to be a compiled program as long as the terminal device 1 can finally execute the program. Alternatively, the control information may be data (programs) provided in the form of an interpreter language (eg, script language), machine language, or intermediate language.

なお、サーバ装置100は、1台のサーバ装置100によって上記したすべてのコンテンツを配信してもよく、複数のサーバ装置100それぞれが対応するコンテンツを配信してもよい。 Note that the server device 100 may distribute all of the above-described contents by a single server device 100, or may distribute respective corresponding contents by a plurality of server devices 100. FIG.

〔端末装置の構成〕
次に、図3を用いて、端末装置1の構成例について説明する。図3は、端末装置1の機能構成例を示すブロック図である。図3に示されるように、端末装置1は、通信部2と、記憶部3と、制御部4と、カメラ5と、照度センサ6と、ジャイロセンサ7と、表示部8とを有する。
[Configuration of terminal device]
Next, a configuration example of the terminal device 1 will be described with reference to FIG. FIG. 3 is a block diagram showing a functional configuration example of the terminal device 1. As shown in FIG. As shown in FIG. 3 , the terminal device 1 has a communication section 2 , a storage section 3 , a control section 4 , a camera 5 , an illuminance sensor 6 , a gyro sensor 7 and a display section 8 .

カメラ5は、端末装置1に内蔵されたいわゆるインカメラである。例えば、カメラ5は、端末装置1において、表示部8と同一の面に配置される。つまり、カメラ5は、表示部8を見ているユーザの顔を撮像可能な位置に配置される。カメラ5は、撮像したユーザの顔画像を制御部4へ出力する。 The camera 5 is a so-called in-camera built into the terminal device 1 . For example, the camera 5 is arranged on the same surface as the display unit 8 in the terminal device 1 . That is, the camera 5 is arranged at a position where the face of the user looking at the display unit 8 can be captured. The camera 5 outputs the captured face image of the user to the control unit 4 .

照度センサ6は、端末装置1の周囲の明暗を示す照度を検出するセンサである。照度センサ6は、検出した照度の情報を制御部4へ出力する。 The illuminance sensor 6 is a sensor that detects illuminance indicating the brightness around the terminal device 1 . The illuminance sensor 6 outputs information on the detected illuminance to the control unit 4 .

ジャイロセンサ7は、端末装置1の傾きや回転等の姿勢を検出するセンサである。ジャイロセンサ7は、検出した端末装置1の姿勢の情報を制御部4へ出力する。 The gyro sensor 7 is a sensor that detects the attitude of the terminal device 1 such as inclination and rotation. The gyro sensor 7 outputs information on the detected orientation of the terminal device 1 to the control unit 4 .

表示部8は、例えば、液晶ディスプレイであり、制御部4の制御に従って各種情報を表示することができる。なお、表示部8は、タッチパネル機能を有してもよい。 The display unit 8 is, for example, a liquid crystal display, and can display various information under the control of the control unit 4 . Note that the display unit 8 may have a touch panel function.

通信部2は、例えば、NIC(Network Interface Card)等によって実現される。通信部2は、有線または無線によりネットワーク網と接続される。通信部2は、サーバ装置100に、ネットワークNを介して、通信可能に接続され、サーバ装置100との間で、情報の送受信を行うことができる。 The communication unit 2 is realized by, for example, a NIC (Network Interface Card) or the like. The communication unit 2 is connected to a network by wire or wirelessly. The communication unit 2 is communicably connected to the server device 100 via the network N, and can transmit and receive information to and from the server device 100 .

記憶部3は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。図3に示されるように、記憶部3は、モデル情報31を有する。 The storage unit 3 is realized by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk. As shown in FIG. 3 , the storage unit 3 has model information 31 .

モデル情報31は、後述する推定部42に用いられる情報であって、端末装置1におけるユーザの把持状態を推定するための学習モデルを含む情報である。モデル情報31におけるモデルを用いることで、予め分類された複数の把持状態のうちのいずれかの把持状態を示すスコアを算出することができる。 The model information 31 is information used by the estimation unit 42 to be described later, and is information including a learning model for estimating the user's gripping state of the terminal device 1 . By using the model in the model information 31, it is possible to calculate a score indicating one of a plurality of pre-classified gripping states.

かかるモデルは、例えば、各把持状態の際に撮像したカメラ5の角膜画像を説明変数とし、対応する把持状態を目的変数として生成することができる。つまり、モデルは、角膜画像と把持状態とをデータセットとして学習することで生成される。学習アルゴリズムは、例えば、CNN(Convolutional Neural Network)を用いることができるが、これに限定される任意の学習アルゴリズムを用いることができる。 Such a model can be generated, for example, by using the corneal image captured by the camera 5 in each grasping state as an explanatory variable and the corresponding grasping state as an objective variable. That is, the model is generated by learning the corneal image and the grasping state as a data set. As the learning algorithm, for example, a CNN (Convolutional Neural Network) can be used, but any learning algorithm limited to this can be used.

なお、モデルに用いる角膜画像は、角膜で反射した反射領域(詳細は後述する)の画像を抽出して説明変数として用いてもよい。 As for the corneal image used for the model, an image of a reflection region (details will be described later) reflected by the cornea may be extracted and used as an explanatory variable.

なお、説明変数には、ユーザの手の特徴情報(指の長さや、手の大きさ等)や、カメラ5の性能情報(解像度や、拡大・縮小率等)、照度センサ6による照度、虹彩の色等の情報がさらに含まれてもよい。 Note that the explanatory variables may further include information such as user hand feature information (finger length, hand size, etc.), camera 5 performance information (resolution, enlargement/reduction ratio, etc.), illuminance from the illuminance sensor 6, iris color, and the like.

制御部4は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等のプロセッサによって、端末装置1内部の記憶装置に記憶されている各種プログラム(制御プログラムの一例に相当)がRAM等を作業領域として実行されることにより実現される。また、制御部4は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、GPGPU(General Purpose Graphic Processing Unit)等の集積回路により実現されてもよい。 The control unit 4 is a controller, for example, implemented by a processor such as a CPU (Central Processing Unit) or an MPU (Micro Processing Unit) executing various programs (equivalent to an example of a control program) stored in a storage device inside the terminal device 1 using a RAM or the like as a work area. Also, the control unit 4 is a controller, and may be implemented by an integrated circuit such as an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or a GPGPU (General Purpose Graphic Processing Unit).

制御部4は、図3に示されるように、取得部41と、推定部42と、提供部43とを有し、以下に説明する制御処理の機能や作用を実現又は実行する。また、制御部4は、図1を参照して上述した制御処理を実現することができる。端末装置1の1つまたは複数のプロセッサは、端末装置1の1つまたは複数のメモリに記憶された命令を実行することによって、制御部4内の各制御部の機能を実現することができる。なお、制御部4の内部構成は、図3に示した構成に限られず、後述する制御処理を行う構成であれば他の構成であってもよい。例えば、取得部41は、取得部41以外の部に関して後述する制御処理の全部または一部を行ってもよい。 As shown in FIG. 3, the control unit 4 includes an acquisition unit 41, an estimation unit 42, and a provision unit 43, and implements or executes functions and effects of control processing described below. Further, the control unit 4 can implement the control processing described above with reference to FIG. One or more processors of terminal device 1 can realize the function of each control unit in control unit 4 by executing instructions stored in one or more memories of terminal device 1 . Note that the internal configuration of the control unit 4 is not limited to the configuration shown in FIG. 3, and may be another configuration as long as it is configured to perform the control processing described later. For example, the acquisition unit 41 may perform all or part of the control processing described later with respect to units other than the acquisition unit 41 .

取得部41は、各種情報を取得する。例えば、取得部41は、カメラ5によって撮像された顔画像に基づいてユーザの角膜を含む角膜画像を取得する。具体的には、取得部41は、取得した顔画像からパターンマッチング等の画像解析処理により、角膜の領域を抽出することで角膜画像を取得する。なお、顔画像をそのまま角膜画像として取得してもよい。角膜画像は、ユーザの左右のいずれかの目、あるいは、両目の画像である。 The acquisition unit 41 acquires various types of information. For example, the acquisition unit 41 acquires a corneal image including the user's cornea based on the face image captured by the camera 5 . Specifically, the acquiring unit 41 acquires a corneal image by extracting a corneal region from the acquired face image by image analysis processing such as pattern matching. Note that the face image may be obtained as it is as the corneal image. A corneal image is an image of either the left or right eye of the user, or both eyes.

また、カメラ5による角膜画像の取得(撮像)タイミングは、例えば、ユーザが表示部8をタッチ操作したタイミングである。あるいは、かかるタイミングは、例えば、ジャイロセンサ7による端末装置1の姿勢変化を検出したタイミングであってもよい。換言すれば、ユーザが端末装置1を把持することで姿勢が変化したタイミングで角膜画像を取得するようにする。 Further, the acquisition (imaging) timing of the corneal image by the camera 5 is, for example, the timing when the user touches the display unit 8 . Alternatively, such timing may be, for example, the timing at which the gyro sensor 7 detects the attitude change of the terminal device 1 . In other words, the corneal image is acquired at the timing when the posture of the user changes by holding the terminal device 1 .

なお、取得部41は、表示部8に特定の輝度の単一画像(白画像)を表示した状態で撮像された角膜画像を取得するようにしてもよい。これにより、反射領域Rに映る表示部領域R1を鮮明にできるため、後段の推定部42における把持状態の推定精度を高めることができる。また、単一画像は、ユーザに知覚されにくい程度のフレーム数で表示することが好ましい。これにより、ユーザに違和感を与えることなく角膜画像を取得することができる。 Note that the acquisition unit 41 may acquire a corneal image captured while a single image (white image) having a specific luminance is displayed on the display unit 8 . As a result, the display area R1 reflected in the reflection area R can be made clearer, so that the estimation accuracy of the gripping state in the estimating section 42 in the subsequent stage can be improved. Also, it is preferable to display a single image with a number of frames that is difficult for the user to perceive. As a result, a corneal image can be obtained without giving the user a sense of discomfort.

また、取得部41は、照度センサ6により検出された端末装置1の周囲の照度を取得する。また、取得部41は、ジャイロセンサ7により検出された端末装置1の姿勢を取得する。 The acquisition unit 41 also acquires the illuminance around the terminal device 1 detected by the illuminance sensor 6 . The acquisition unit 41 also acquires the orientation of the terminal device 1 detected by the gyro sensor 7 .

推定部42は、取得部41によって取得された角膜画像のうち、角膜で反射する反射領域Rの画像に基づいて、端末装置1におけるユーザの把持状態を推定する。具体的には、推定部42は、まず、角膜画像から反射領域Rを抽出する。例えば、推定部42は、角膜画像のエッジ検出や、パターンマッチング等の画像解析により、瞳孔および虹彩の領域を反射領域Rとして抽出する。なお、反射領域Rは、瞳孔および虹彩のいずれか一方の領域であってもよい。 The estimation unit 42 estimates the user's gripping state of the terminal device 1 based on the image of the reflection area R reflected by the cornea in the corneal image acquired by the acquisition unit 41 . Specifically, the estimation unit 42 first extracts the reflection area R from the corneal image. For example, the estimation unit 42 extracts the pupil and iris regions as the reflection regions R by edge detection of the corneal image and image analysis such as pattern matching. Note that the reflective area R may be either one of the pupil and the iris.

つづいて、推定部42は、反射領域Rに表示部領域R1および指領域R2のうち、少なくとも表示部領域R1が含まれるか否か判定する。推定部42は、反射領域Rに表示部領域R1が含まれる場合、モデル情報31におけるモデルに反射領域Rの画像を入力し、モデルからの出力結果を把持状態として推定する。一方、推定部42は、反射領域Rに表示部領域R1が含まれないと判定した場合には、モデルに入力せずに反射領域Rの画像を破棄する。すなわち、把持状態の推定を行わない。これにより、不要な推定処理を減らすことができるため、制御部4の負荷を抑えることができる。 Next, the estimation unit 42 determines whether or not the reflection area R includes at least the display area R1 out of the display area R1 and the finger area R2. When the display area R1 is included in the reflection area R, the estimation unit 42 inputs the image of the reflection area R to the model in the model information 31, and estimates the output result from the model as the gripping state. On the other hand, when the estimation unit 42 determines that the reflection area R does not include the display area R1, the image of the reflection area R is discarded without being input to the model. In other words, the grasping state is not estimated. As a result, unnecessary estimation processing can be reduced, and the load on the control unit 4 can be suppressed.

なお、推定部42は、反射領域Rに表示部領域R1が含まれるか否かの判定を行わずにモデルに反射領域Rの画像を入力してもよい。換言すれば、モデルが反射領域Rに表示部領域R1が含まれるか否かを判定する機能を有してもよい。 Note that the estimation unit 42 may input the image of the reflection area R to the model without determining whether the reflection area R includes the display area R1. In other words, the model may have a function of determining whether the reflection area R includes the display area R1.

推定結果である把持状態には、ユーザが端末装置1を左右のどちらの手、あるいは両手で把持しているかの情報や、どの指で表示部8を操作しているかの情報、表示部8のどの位置をタッチ操作している(しようとしている)かの情報、机等の据置台に据え置いているかの情報が含まれ得る。つまり、推定部42は、把持状態として、端末装置1を把持する手、端末装置1の表示部8を操作する指および表示部8への操作位置の少なくとも1つを推定する。 The gripping state, which is the estimated result, can include information about which hand, left or right, or both hands the user is gripping the terminal device 1, information about which finger is operating the display unit 8, information about which position on the display unit 8 is touch-operated (or about to be touched), and information about whether the terminal device is placed on a stand such as a desk. That is, the estimation unit 42 estimates at least one of the hand holding the terminal device 1, the finger operating the display unit 8 of the terminal device 1, and the operation position on the display unit 8 as the holding state.

また、推定部42は、把持状態に加えて、タッチペン等のポインティングデバイスを使用して表示部8にタッチ操作しているかの情報を推定可能である。かかる推定は、角膜画像を説明変数として、ポインティングデバイスの使用の有無の情報を目的変数とするモデルを学習により生成することで推定可能である。つまり、推定部42は、把持状態として、ポインティングデバイスによる操作の有無を推定する。 In addition to the grasping state, the estimation unit 42 can also estimate information as to whether the display unit 8 is being touched using a pointing device such as a touch pen. Such an estimation can be made by learning and generating a model in which the corneal image is used as an explanatory variable and information on whether or not the pointing device is used is used as an objective variable. That is, the estimating unit 42 estimates whether or not there is an operation with the pointing device as the gripping state.

また、推定部42は、照度センサ6によって検出された照度に応じて角膜画像の輝度を調整(補正)してからモデルに入力するようにしてもよい。これにより、モデルからの出力結果である把持状態の推定精度を高めることができる。 Alternatively, the estimation unit 42 may adjust (correct) the luminance of the corneal image according to the illuminance detected by the illuminance sensor 6 before inputting it to the model. As a result, it is possible to improve the estimation accuracy of the gripping state, which is the output result from the model.

提供部43は、推定部42によって推定された把持状態に応じたコンテンツを提供する。例えば、提供部43は、図1に示したように、表示部8に表示されたアイコン画像8aの位置を把持状態に応じて移動させる。なお、図1では、すべてのアイコン画像8aを把持している手の近くに移動させる例を示したが、例えば、ユーザが予め指定したアイコン画像8aのみや、使用頻度が上位の所定数のアイコン画像8aのみを移動させてもよい。移動後の位置は、把持している手の指のリーチ範囲内であることが好ましい。リーチ範囲は、予めユーザから入力により取得することができる。 The providing unit 43 provides content according to the grip state estimated by the estimating unit 42 . For example, as shown in FIG. 1, the providing unit 43 moves the position of the icon image 8a displayed on the display unit 8 according to the holding state. Although FIG. 1 shows an example in which all the icon images 8a are moved closer to the hand holding the icon images, for example, only the icon images 8a designated in advance by the user or only a predetermined number of icon images 8a with the highest frequency of use may be moved. The position after movement is preferably within the reach of the fingers of the gripping hand. The reach range can be acquired in advance by input from the user.

また、アイコン画像8aに限らず、ホームボタンや戻るボタン、広告コンテンツ等の他のインタラクティブ要素を把持している手の近くに移動させてもよい。換言すれば、アイコン画像8a等のインタラクティブ要素をリーチ範囲外に配置しないようにする。 Further, not only the icon image 8a, but also other interactive elements such as a home button, a back button, and advertising content may be moved closer to the hand holding the icon image. In other words, the interactive element such as the icon image 8a should not be placed outside the reach range.

また、提供部43は、推定した把持状態に応じて、端末装置1の設定モードを変更するようにしてもよい。具体的には、提供部43は、把持状態に応じてウェブコンテンツ等のモードを切り替えるようにしてもよい。具体的には、提供部43は、右手で把持している場合には、ブラウザをシークレットモードで起動し、左手で把持している場合には、通常モードで起動するようにしてもよい。このようなモード切替の設定は、ユーザによって事前に設定されてもよく、予め定められていてもよい。 Further, the providing unit 43 may change the setting mode of the terminal device 1 according to the estimated holding state. Specifically, the providing unit 43 may switch the mode of the web content or the like according to the holding state. Specifically, the providing unit 43 may activate the browser in secret mode when held with the right hand, and activate the browser in normal mode when held with the left hand. Such mode switching setting may be set in advance by the user or may be determined in advance.

また、このようなモード切替の例として、ポインティングデバイスの使用有無に応じて切り替えることができる。提供部43は、例えば、ポインティングデバイスを使用して操作していることが推定された場合には、ポインティングデバイスによる書込みモードに切り替え、指で操作している(ポインティングデバイスを使用していない)ことが推定された場合には、画面をスクロールするモードに切り替える。 Also, as an example of such mode switching, switching can be performed depending on whether or not the pointing device is used. For example, when it is estimated that a pointing device is used for operation, the providing unit 43 switches to the writing mode using the pointing device, and when it is estimated that the operation is performed with a finger (the pointing device is not used), it switches to the screen scrolling mode.

また、このようなモード切替は、左右のどちらの手で把持しているかにより行われる場合に限らず、操作部位により行われてもよい。例えば、提供部43は、指、爪、拳(ナックル)、指の関節のいずれの部位で操作が行われるかに応じたモード切替(あるいはコンテンツ提供)を行ってもよい。 In addition, such mode switching may be performed depending on which hand, left or right, is used for gripping, rather than depending on the operating part. For example, the providing unit 43 may perform mode switching (or content provision) according to which part of the finger, nail, fist (knuckle), or finger joint the operation is performed.

また、提供部43は、推定した把持状態の継続時間に基づいて、ユーザの疲労度合いに関するコンテンツを提供してもよい。例えば、提供部43は、同じ手で所定時間以上把持している状態が続いた場合には、疲労が蓄積している旨や、腱鞘炎(ドケルバン病)を発症する可能性がある旨の警告情報を通知してもよい。また、提供部43は、左右の一方の手で所定時間以上把持している状態が続いた場合には、他方の手(あるいは両手)で端末装置1を把持するよう提案してもよい。 Further, the providing unit 43 may provide content related to the user's degree of fatigue based on the estimated duration of the gripping state. For example, the providing unit 43 may provide warning information indicating that fatigue has accumulated or that tendonitis (De Quervain's disease) may develop if the same hand continues to hold the object for a predetermined time or longer. In addition, the providing unit 43 may suggest that the terminal device 1 be held with the other hand (or both hands) when the state of holding the terminal device 1 with one of the left and right hands continues for a predetermined time or longer.

ここで、表示部8を見る際に、端末装置1を左右方向のいずれかに過度に傾けた場合には、左目から表示部8までの距離と、右目から表示部8までの距離とに差が生じることで眼精疲労を起こす可能性がある。そこで、提供部43は、表示部8の正しい見方をガイドするコンテンツを提供する。具体的には、提供部43は、ジャイロセンサ7によって端末装置1が左右方向に所定以上傾いた場合に、角膜画像に表示部領域R1が映らない時には、眼精疲労の可能性を通知し、正しい角度や距離で表示部8を見るようガイドする。 Here, when the terminal device 1 is excessively tilted in one of the left and right directions when viewing the display unit 8, there is a possibility of eye strain due to the difference between the distance from the left eye to the display unit 8 and the distance from the right eye to the display unit 8. Therefore, the providing unit 43 provides content that guides how to view the display unit 8 correctly. Specifically, when the gyro sensor 7 tilts the terminal device 1 in the lateral direction by a predetermined amount or more and the display area R1 is not displayed in the corneal image, the providing unit 43 notifies the user of the possibility of eyestrain and guides the user to view the display unit 8 at a correct angle and distance.

より具体的には、提供部43は、端末装置1の傾きに基づいて、角膜画像に表示部領域R1や指領域R2が映るまで端末装置1の傾きを変更するよう通知する。例えば、提供部43は、端末装置1が右方向に傾いている場合には、左方向に傾けるよう通知する。 More specifically, based on the tilt of the terminal device 1, the providing unit 43 notifies the user to change the tilt of the terminal device 1 until the display region R1 and the finger region R2 appear in the corneal image. For example, when the terminal device 1 is tilted rightward, the providing unit 43 notifies to tilt it leftward.

また、提供部43は、角膜画像に映った表示部領域R1のサイズ(面積)が所定値以上である場合には、端末装置1をユーザから離すよう指示し、表示部領域R1のサイズ(面積)が所定値未満である場合には、端末装置1をユーザに近づけるよう指示する。つまり、提供部43は、端末装置1とユーザとの距離が適切となるまで端末装置1を移動させるよう指示する。 Further, the providing unit 43 instructs the terminal device 1 to move away from the user when the size (area) of the display region R1 reflected in the corneal image is equal to or larger than a predetermined value, and instructs the terminal device 1 to move closer to the user when the size (area) of the display region R1 is less than the predetermined value. That is, the providing unit 43 instructs to move the terminal device 1 until the distance between the terminal device 1 and the user becomes appropriate.

〔処理フロー〕
次に、図4を参照して、実施形態に係る端末装置1による処理の手順について説明する。図4は、実施形態に係る端末装置1によって実行される処理の一例を示すフローチャートである。
[Processing flow]
Next, a procedure of processing by the terminal device 1 according to the embodiment will be described with reference to FIG. FIG. 4 is a flowchart showing an example of processing executed by the terminal device 1 according to the embodiment.

図4に示すように、取得部41は、まず、カメラ5によって撮像された画像に基づいて、角膜画像を取得する(ステップS101)。つづいて、推定部42は、角膜画像のうち、角膜で反射する反射領域の画像に基づいて、端末装置1におけるユーザの把持状態を推定する(ステップS102)。つづいて、提供部43は、推定された把持状態に応じたコンテンツを提供し(ステップS103)、処理を終了する。 As shown in FIG. 4, the acquiring unit 41 first acquires a corneal image based on the image captured by the camera 5 (step S101). Subsequently, the estimating unit 42 estimates the user's gripping state of the terminal device 1 based on the image of the reflection area reflected by the cornea in the corneal image (step S102). Subsequently, the providing unit 43 provides content according to the estimated gripping state (step S103), and ends the process.

〔その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の一部を手動的に行うこともできる。あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
〔others〕
Also, among the processes described in the above embodiments, some of the processes described as being automatically performed can also be performed manually. Alternatively, all or part of the processes described as being performed manually can be performed automatically by known methods. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each drawing is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Also, each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution and integration of each device is not limited to the illustrated one, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions.

例えば、図3に示した記憶部3の一部又は全部は、端末装置1によって保持されるのではなく、ストレージサーバ等に保持されてもよい。この場合、端末装置1は、ストレージサーバにアクセスすることで、各種情報を取得する。 For example, part or all of the storage unit 3 shown in FIG. 3 may be held in a storage server or the like instead of being held by the terminal device 1 . In this case, the terminal device 1 acquires various information by accessing the storage server.

〔ハードウェア構成〕
また、上述してきた実施形態に係る端末装置1は、例えば図5に示すような構成のコンピュータ1000によって実現される。図5は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
[Hardware configuration]
Also, the terminal device 1 according to the above-described embodiments is implemented by a computer 1000 configured as shown in FIG. 5, for example. FIG. 5 is a diagram illustrating an example of a hardware configuration; A computer 1000 is connected to an output device 1010 and an input device 1020, and has a form in which an arithmetic device 1030, a primary storage device 1040, a secondary storage device 1050, an output IF (Interface) 1060, an input IF 1070, and a network IF 1080 are connected by a bus 1090.

演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。一次記憶装置1040は、RAM等、演算装置1030が各種の演算に用いるデータを一時的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等により実現される。 Arithmetic device 1030 operates based on programs stored in primary storage device 1040 and secondary storage device 1050, programs read from input device 1020, and the like, and executes various types of processing. The primary storage device 1040 is a memory device such as a RAM that temporarily stores data used by the arithmetic device 1030 for various calculations. The secondary storage device 1050 is a storage device in which data used for various calculations by the arithmetic device 1030 and various databases are registered, and is realized by ROM (Read Only Memory), HDD (Hard Disk Drive), flash memory, or the like.

出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。 The output IF 1060 is an interface for transmitting information to be output to the output device 1010 that outputs various types of information, such as a monitor and a printer. Also, the input IF 1070 is an interface for receiving information from various input devices 1020 such as a mouse, keyboard, scanner, etc., and is realized by, for example, USB.

なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置であってもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体であってもよい。 The input device 1020 may be, for example, an optical recording medium such as a CD (Compact Disc), a DVD (Digital Versatile Disc), or a PD (Phase change rewritable disc), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a device that reads information from a semiconductor memory. Also, the input device 1020 may be an external storage medium such as a USB memory.

ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。 Network IF 1080 receives data from other devices via network N and sends the data to arithmetic device 1030, and also transmits data generated by arithmetic device 1030 via network N to other devices.

演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。 The arithmetic device 1030 controls the output device 1010 and the input device 1020 via the output IF 1060 and the input IF 1070 . For example, arithmetic device 1030 loads a program from input device 1020 or secondary storage device 1050 onto primary storage device 1040 and executes the loaded program.

例えば、コンピュータ1000が端末装置1として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部4の機能を実現する。 For example, when the computer 1000 functions as the terminal device 1 , the arithmetic device 1030 of the computer 1000 implements the functions of the control unit 4 by executing programs loaded on the primary storage device 1040 .

〔効果〕
上述してきたように、実施形態に係る端末装置1は、取得部41と、推定部42と、提供部43とを備える。取得部41は、ユーザが所持する端末装置1に内蔵されたカメラ5によって撮像されたユーザの角膜を示す角膜画像を取得する。推定部42は、角膜画像のうち、角膜で反射する反射領域Rの画像に基づいて、端末装置1におけるユーザの把持状態を推定する。提供部43は、推定部42によって推定された把持状態に応じたコンテンツを提供する。推定部42は、各把持状態の際に撮像された角膜画像を説明変数とし、対応する把持状態を目的変数として生成したモデルを用いて把持状態を推定する。推定部42は、角膜のうち、瞳孔および虹彩の少なくとも一方を含む領域を反射領域Rとして抽出する。推定部42は、把持状態として、端末装置1を把持する手、端末装置1の表示部8を操作する指および表示部8への操作位置の少なくとも1つを推定する。推定部42は、把持状態として、ポインティングデバイスによる操作の有無を推定する。取得部41は、端末装置1の周囲の照度を検出する照度センサ6から照度の情報を取得する。推定部42は、照度に基づいて角膜画像の輝度を補正し、補正後の角膜画像を用いて把持状態を推定する。取得部41は、端末装置1の表示部8に特定の輝度の単一画像を表示した状態で撮像された角膜画像を取得する。提供部43は、表示部8に表示されるインタラクティブ要素を推定部42によって推定された把持状態に応じた位置に移動させる。提供部43は、推定部42によって推定された把持状態の継続時間に基づいて、ユーザの疲労度合いに関するコンテンツを提供する。提供部43は、推定部42によって推定された把持状態に応じて、端末装置1の設定モードを変更する。これにより、ユーザに対して適切なコンテンツを提供することができる。
〔effect〕
As described above, the terminal device 1 according to the embodiment includes the acquisition unit 41 , the estimation unit 42 and the provision unit 43 . The acquisition unit 41 acquires a corneal image representing the user's cornea captured by the camera 5 built into the terminal device 1 carried by the user. The estimating unit 42 estimates the user's gripping state of the terminal device 1 based on the image of the reflection region R reflected by the cornea in the corneal image. The providing unit 43 provides content according to the grip state estimated by the estimating unit 42 . The estimating unit 42 estimates the gripping state using a model generated by using the corneal image captured in each gripping state as an explanatory variable and the corresponding gripping state as an objective variable. The estimating unit 42 extracts a region including at least one of the pupil and the iris as the reflection region R from the cornea. The estimation unit 42 estimates at least one of a hand holding the terminal device 1 , a finger operating the display unit 8 of the terminal device 1 , and an operation position on the display unit 8 as the holding state. The estimation unit 42 estimates the presence or absence of an operation with the pointing device as the grip state. The acquisition unit 41 acquires illuminance information from the illuminance sensor 6 that detects the illuminance around the terminal device 1 . The estimation unit 42 corrects the brightness of the corneal image based on the illuminance, and estimates the gripping state using the corrected corneal image. The acquiring unit 41 acquires a corneal image captured while a single image with a specific luminance is displayed on the display unit 8 of the terminal device 1 . The providing unit 43 moves the interactive element displayed on the display unit 8 to a position according to the grip state estimated by the estimating unit 42 . The providing unit 43 provides content related to the user's degree of fatigue based on the duration of the gripping state estimated by the estimating unit 42 . The providing unit 43 changes the setting mode of the terminal device 1 according to the grip state estimated by the estimating unit 42 . This makes it possible to provide appropriate content to the user.

以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 As described above, some of the embodiments of the present application have been described in detail based on the drawings, but these are examples, and the present invention can be implemented in other forms with various modifications and improvements based on the knowledge of those skilled in the art, including the embodiments described in the disclosure of the invention.

〔その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
〔others〕
Further, among the processes described in the above embodiments, all or part of the processes described as being automatically performed can be manually performed, or all or part of the processes described as being manually performed can be automatically performed by a known method. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each drawing is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Also, each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution and integration of each device is not limited to the illustrated one, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions.

また、上述してきた実施形態に記載した各処理は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Further, each processing described in the above-described embodiments can be appropriately combined within a range that does not contradict the content of the processing.

また、上記してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、制御部4は、制御手段や制御回路に読み替えることができる。 Also, the "section, module, unit" described above can be read as "means" or "circuit". For example, the control unit 4 can be read as control means or a control circuit.

1 端末装置
2 通信部
3 記憶部
4 制御部
5 カメラ
6 照度センサ
7 ジャイロセンサ
8 表示部
31 モデル情報
41 取得部
42 推定部
43 提供部
100 サーバ装置
N ネットワーク
S 制御システム
1 terminal device 2 communication unit 3 storage unit 4 control unit 5 camera 6 illuminance sensor 7 gyro sensor 8 display unit 31 model information 41 acquisition unit 42 estimation unit 43 provision unit 100 server device N network S control system

Claims (11)

ユーザが所持する端末装置に内蔵されたカメラによって撮像された前記ユーザの角膜を示す角膜画像を取得する取得部と、
前記角膜画像のうち、前記角膜で反射する反射領域の画像に基づいて、前記端末装置における前記ユーザの把持状態を推定する推定部と、
前記推定部によって推定された前記把持状態に応じたコンテンツを提供する提供部と
を備え
前記推定部は、
前記把持状態として、ポインティングデバイスによる操作の有無を推定すること
を特徴とする端末装置。
an acquisition unit that acquires a corneal image showing the user's cornea captured by a camera incorporated in a terminal device owned by the user;
an estimating unit for estimating the user's gripping state of the terminal device based on an image of a reflection area reflected by the cornea in the corneal image;
a providing unit that provides content corresponding to the gripping state estimated by the estimating unit ;
The estimation unit
estimating presence/absence of operation with a pointing device as the grasping state;
A terminal device characterized by:
前記推定部は、
各把持状態の際に撮像された前記角膜画像を説明変数とし、対応する前記把持状態を目的変数として生成したモデルを用いて前記把持状態を推定すること
を特徴とする請求項1に記載の端末装置。
The estimation unit
The terminal device according to claim 1, wherein the gripping state is estimated using a model generated by using the corneal image captured in each gripping state as an explanatory variable and the corresponding gripping state as an objective variable.
前記推定部は、
前記角膜のうち、瞳孔および虹彩の少なくとも一方を含む領域を前記反射領域として抽出すること
を特徴とする請求項1または2に記載の端末装置。
The estimation unit
3. The terminal device according to claim 1, wherein an area including at least one of a pupil and an iris is extracted from the cornea as the reflection area.
前記推定部は、
前記把持状態として、前記端末装置を把持する手、前記端末装置の表示部を操作する指および前記表示部への操作位置の少なくとも1つを推定すること
を特徴とする請求項1~3のいずれか1つに記載の端末装置。
The estimation unit
3. The terminal device according to any one of claims 1 to 3, wherein at least one of a hand holding the terminal device, a finger operating the display unit of the terminal device, and an operation position on the display unit is estimated as the holding state.
前記取得部は、
前記端末装置の周囲の照度を検出する照度センサから前記照度の情報を取得し、
前記推定部は、
前記照度に基づいて前記角膜画像の輝度を補正し、補正後の前記角膜画像を用いて前記把持状態を推定すること
を特徴とする請求項1~のいずれか1つに記載の端末装置。
The acquisition unit
Acquiring the illuminance information from an illuminance sensor that detects the illuminance around the terminal device,
The estimation unit
The terminal device according to any one of claims 1 to 4 , wherein the luminance of the corneal image is corrected based on the illuminance, and the grip state is estimated using the corrected corneal image.
前記取得部は、
前記端末装置の表示部に特定の輝度の単一画像を表示した状態で撮像された前記角膜画像を取得すること
を特徴とする請求項1~のいずれか1つに記載の端末装置。
The acquisition unit
The terminal device according to any one of claims 1 to 5, wherein the corneal image captured while a single image with a specific brightness is displayed on the display section of the terminal device is acquired.
前記提供部は、
前記端末装置の表示部に表示されるインタラクティブ要素を前記推定部によって推定された前記把持状態に応じた位置に移動させること
を特徴とする請求項1~のいずれか1つに記載の端末装置。
The providing unit
The terminal device according to any one of claims 1 to 6 , wherein an interactive element displayed on the display section of the terminal device is moved to a position according to the grip state estimated by the estimation section.
前記提供部は、
前記推定部によって推定された前記把持状態の継続時間に基づいて、前記ユーザの疲労度合いに関するコンテンツを提供すること
を特徴とする請求項1~のいずれか1つに記載の端末装置。
The providing unit
The terminal device according to any one of claims 1 to 7 , wherein content regarding the degree of fatigue of the user is provided based on the duration of the gripping state estimated by the estimation unit.
前記提供部は、
前記推定部によって推定された前記把持状態に応じて、前記端末装置の設定モードを変更すること
を特徴とする請求項1~のいずれか1つに記載の端末装置。
The providing unit
The terminal device according to any one of claims 1 to 8 , wherein a setting mode of the terminal device is changed according to the grip state estimated by the estimation unit.
端末装置が実行する制御方法であって、
ユーザが所持する端末装置に内蔵されたカメラによって撮像された前記ユーザの角膜を示す角膜画像を取得する取得工程と、
前記角膜画像のうち、前記角膜で反射する反射領域の画像に基づいて、前記端末装置における前記ユーザの把持状態を推定する推定工程と、
前記推定工程によって推定された前記把持状態に応じたコンテンツを提供する提供工程と
を含み、
前記推定工程は、
前記把持状態として、ポインティングデバイスによる操作の有無を推定すること
を特徴とする端末装置の制御方法。
A control method executed by a terminal device,
an acquiring step of acquiring a corneal image showing the user's cornea captured by a camera incorporated in a terminal device owned by the user;
an estimating step of estimating the user's gripping state of the terminal device based on an image of a reflection area reflected by the cornea in the corneal image;
a providing step of providing content according to the gripping state estimated by the estimating step ;
The estimation step includes
estimating presence/absence of operation with a pointing device as the grasping state;
A terminal device control method characterized by:
ユーザが所持する端末装置に内蔵されたカメラによって撮像された前記ユーザの角膜を示す角膜画像を取得する取得手順と、
前記角膜画像のうち、前記角膜で反射する反射領域の画像に基づいて、前記端末装置における前記ユーザの把持状態を推定する推定手順と、
前記推定手順によって推定された前記把持状態に応じたコンテンツを提供する提供手順と
をコンピュータに実行させ
前記推定手順は、
前記把持状態として、ポインティングデバイスによる操作の有無を推定すること
を特徴とする端末装置の制御プログラム。
an acquisition procedure for acquiring a corneal image showing the user's cornea captured by a camera incorporated in a terminal device owned by the user;
an estimation step of estimating a gripping state of the user on the terminal device based on an image of a reflection area reflected by the cornea in the corneal image;
causing a computer to execute a provision step of providing content according to the gripping state estimated by the estimation step ;
The estimation procedure includes:
estimating presence/absence of operation with a pointing device as the grasping state;
A terminal device control program characterized by:
JP2021070510A 2021-04-19 2021-04-19 TERMINAL DEVICE, TERMINAL DEVICE CONTROL METHOD AND TERMINAL DEVICE CONTROL PROGRAM Active JP7314196B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021070510A JP7314196B2 (en) 2021-04-19 2021-04-19 TERMINAL DEVICE, TERMINAL DEVICE CONTROL METHOD AND TERMINAL DEVICE CONTROL PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021070510A JP7314196B2 (en) 2021-04-19 2021-04-19 TERMINAL DEVICE, TERMINAL DEVICE CONTROL METHOD AND TERMINAL DEVICE CONTROL PROGRAM

Publications (2)

Publication Number Publication Date
JP2022165237A JP2022165237A (en) 2022-10-31
JP7314196B2 true JP7314196B2 (en) 2023-07-25

Family

ID=83845705

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021070510A Active JP7314196B2 (en) 2021-04-19 2021-04-19 TERMINAL DEVICE, TERMINAL DEVICE CONTROL METHOD AND TERMINAL DEVICE CONTROL PROGRAM

Country Status (1)

Country Link
JP (1) JP7314196B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013012880A (en) 2011-06-29 2013-01-17 Ntt Docomo Inc Mobile information terminal, allocation domain acquisition method, and program
US20160216837A1 (en) 2014-10-22 2016-07-28 Telefonaktiebolaget L M Ericsson (Publ) Method and device for providing a touch-based user interface
JP2017510868A (en) 2014-01-21 2017-04-13 マイクロソフト テクノロジー ライセンシング,エルエルシー Grip state detection
JP2020135306A (en) 2019-02-18 2020-08-31 セイコーエプソン株式会社 Display system, program for controlling information processing device, and method of controlling information processing device
US20210103732A1 (en) 2019-10-03 2021-04-08 Nokia Technologies Oy Alerts based on corneal reflections

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013012880A (en) 2011-06-29 2013-01-17 Ntt Docomo Inc Mobile information terminal, allocation domain acquisition method, and program
JP2017510868A (en) 2014-01-21 2017-04-13 マイクロソフト テクノロジー ライセンシング,エルエルシー Grip state detection
US20160216837A1 (en) 2014-10-22 2016-07-28 Telefonaktiebolaget L M Ericsson (Publ) Method and device for providing a touch-based user interface
JP2020135306A (en) 2019-02-18 2020-08-31 セイコーエプソン株式会社 Display system, program for controlling information processing device, and method of controlling information processing device
US20210103732A1 (en) 2019-10-03 2021-04-08 Nokia Technologies Oy Alerts based on corneal reflections

Also Published As

Publication number Publication date
JP2022165237A (en) 2022-10-31

Similar Documents

Publication Publication Date Title
JP5915000B2 (en) Information processing apparatus and program
EP3180687B1 (en) Hover-based interaction with rendered content
KR101312227B1 (en) Movement recognition as input mechanism
US20160179211A1 (en) Systems and methods for triggering actions based on touch-free gesture detection
JP5768457B2 (en) Electronic device, display method and program
US20120092381A1 (en) Snapping User Interface Elements Based On Touch Input
JP2012137970A (en) Information processing device and method, and program
US20130307765A1 (en) Contactless Gesture-Based Control Method and Apparatus
TW201329835A (en) Display control device, display control method, and computer program
US9685143B2 (en) Display control device, display control method, and computer-readable storage medium for changing a representation of content displayed on a display screen
CN102298504A (en) Method and system for magnifying display
JP6973025B2 (en) Display devices, image processing devices and programs
JP2006146516A (en) Image processor with touch panel
US11437001B2 (en) Image processing apparatus, program and image processing method
JP6758922B2 (en) Electronic devices and their control methods
WO2016110259A1 (en) Content acquiring method and apparatus, and user equipment
US10303346B2 (en) Information processing apparatus, non-transitory computer readable storage medium, and information display method
JP7314196B2 (en) TERMINAL DEVICE, TERMINAL DEVICE CONTROL METHOD AND TERMINAL DEVICE CONTROL PROGRAM
JP5974809B2 (en) Display device, display control method, and display control program
US9898183B1 (en) Motions for object rendering and selection
WO2017016333A1 (en) Screen adjustment method and device
US10534516B2 (en) User interaction method for input selection
JP6089570B2 (en) Display device, display control method, and display control program
KR20120062053A (en) Touch screen control how the character of the virtual pet
US20190121534A1 (en) Non-transitory computer-readable recording medium, information control method, and terminal device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220809

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230712

R150 Certificate of patent or registration of utility model

Ref document number: 7314196

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350