JP2022165237A - 端末装置、端末装置の制御方法および端末装置の制御プログラム - Google Patents

端末装置、端末装置の制御方法および端末装置の制御プログラム Download PDF

Info

Publication number
JP2022165237A
JP2022165237A JP2021070510A JP2021070510A JP2022165237A JP 2022165237 A JP2022165237 A JP 2022165237A JP 2021070510 A JP2021070510 A JP 2021070510A JP 2021070510 A JP2021070510 A JP 2021070510A JP 2022165237 A JP2022165237 A JP 2022165237A
Authority
JP
Japan
Prior art keywords
terminal device
unit
user
image
estimated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021070510A
Other languages
English (en)
Other versions
JP7314196B2 (ja
Inventor
香 池松
Kaori Ikematsu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2021070510A priority Critical patent/JP7314196B2/ja
Publication of JP2022165237A publication Critical patent/JP2022165237A/ja
Application granted granted Critical
Publication of JP7314196B2 publication Critical patent/JP7314196B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Eye Examination Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザに対して適切なコンテンツを提供することができる端末装置、端末装置の制御方法および端末装置の制御プログラムを提供すること。【解決手段】本願に係る端末装置は、取得部と、推定部と、提供部とを備える。取得部は、ユーザが所持する端末装置に内蔵されたカメラによって撮像されたユーザの角膜を示す角膜画像を取得する。推定部は、角膜画像のうち、角膜で反射する反射領域の画像に基づいて、端末装置におけるユーザの把持状態を推定する。提供部は、推定部によって推定された把持状態に応じたコンテンツを提供する。【選択図】図3

Description

本発明は、端末装置、端末装置の制御方法および端末装置の制御プログラムに関する。
従来、ユーザが所持している端末装置の把持状態を推定して各種コンテンツを提供する技術が提案されている。
国際公開第2018/105266号
しかしながら、従来技術においては、ユーザに対してより適切なコンテンツを提供する点でさらなる改善の余地があった。
本願は、上記に鑑みてなされたものであって、ユーザに対して適切なコンテンツを提供することができる端末装置、端末装置の制御方法および端末装置の制御プログラムを提供することを目的とする。
本願に係る端末装置は、取得部と、推定部と、提供部とを備える。前記取得部は、ユーザが所持する端末装置に内蔵されたカメラによって撮像された前記ユーザの角膜を示す角膜画像を取得する。前記推定部は、前記角膜画像のうち、前記角膜で反射する反射領域の画像に基づいて、前記端末装置における前記ユーザの把持状態を推定する。前記提供部は、前記推定部によって推定された前記把持状態に応じたコンテンツを提供する。
実施形態の一態様によれば、ユーザに対して適切なコンテンツを提供することができるという効果を奏する。
図1は、実施形態に係る端末装置の制御処理の一例を示す図である。 図2は、実施形態に係る制御システムの一例を示す図である。 図3は、端末装置の機能構成例を示すブロック図である。 図4は、実施形態に係る端末装置によって実行される処理の一例を示すフローチャートである。 図5は、ハードウェア構成の一例を示す図である。
以下に、本願に係る端末装置、端末装置の制御方法および端末装置の制御プログラムを実施するための形態(以下、「実施形態」と記載する)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る端末装置、端末装置の制御方法および端末装置の制御プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
(実施形態)
〔端末装置の制御処理の概要〕
まず、図1を参照して、本開示の例示的な実施形態について詳細に説明する。図1は、実施形態に係る端末装置の制御処理の一例を示す図である。端末装置の制御処理は、実施形態に係る端末装置1が制御方法を実行することで行われる処理である。
図1では、ユーザが端末装置1を右手で持って(把持して)操作している状況を示している。実施形態に係る端末装置1は、まず、制御処理により、ユーザの角膜で反射した画像に基づいて、端末装置1におけるユーザの把持状態を推定し、推定した把持状態に応じたコンテンツを提供する。
具体的には、まず、端末装置1は、端末装置1に内蔵されたカメラ5(図3参照)によって撮像されたユーザの角膜を示す角膜画像を取得する(ステップS1)。角膜画像は、カメラ5によって撮像されたユーザの顔全体の顔画像から角膜の領域を抽出して角膜画像として取得してもよい。
なお、図1では、ユーザの右目の角膜画像を示しているが、左目の角膜画像であってもよく、両目の角膜画像であってもよい。
つづいて、端末装置1は、角膜画像のうち、角膜で反射する反射領域Rの画像に基づいて、端末装置1におけるユーザの把持状態を推定する(ステップS2)。図1に示すように、反射領域Rには、端末装置1の表示部8に起因した形状の明るい領域である表示部領域R1と、ユーザの指(親指)に起因した形状の暗い領域である指領域R2とが含まれる。つまり、端末装置1は、表示部領域R1と、指領域R2との位置関係に基づいてユーザの把持状態を推定する。
なお、把持状態の推定は、機械学習により生成されたモデルを用いることができるが、かかる点の詳細については後述する。
図1に示す例では、端末装置1は、ユーザが右手で端末装置1を把持して親指で表示部8をタッチ操作している状態を把持状態として推定する。つまり、推定する把持状態には、ユーザが左右どちらの手で把持しているかの情報に加え、どの指で表示部8を操作しているかの情報が含まれる。なお、把持状態には、さらに、表示部8のどの位置をタッチ操作しているか(タッチ位置、あるいはタッチ座標)の情報が含まれてもよい。
また、端末装置1は、把持状態に加えて、タッチペン等のポインティングデバイスにより表示部8を操作しているかを推定することができるが、かかる点の詳細については後述する。
そして、端末装置1は、推定した把持状態に応じたコンテンツを提供する(ステップS3)。図1に示す例では、端末装置1は、表示部8に表示されたアプリケーションのアイコン画像8aの位置を、右下の領域、すなわち、ユーザの右手の親指に近い領域に移動させる。
これにより、ユーザは右手の親指によるアイコン画像8aへのアクセスが容易になるため、端末装置1に対するユーザの操作性を向上させることができる。
このように、実施形態に係る端末装置1によれば、角膜で反射した反射領域Rの画像に基づいてユーザの把持状態を推定することで、把持状態を高精度に推定することができる。そして、把持状態を高精度に推定することで、ユーザに対してより適切なコンテンツを提供することができる。
なお、図1に示す例では、表示部8に表示されたアイコン画像8aの位置を把持状態に応じて移動させるコンテンツを提供する例を示したが、この他にも、推定した把持状態に応じて様々なコンテンツを提供可能である。なお、提供される他のコンテンツの詳細については後述する。
以下、このような制御処理を行う端末装置1について詳細に説明する。
〔制御システム〕
次に、図2を参照して、端末装置1を含むシステムの構成例について説明する。
〔制御システムの構成要素〕
図2は、実施形態に係る制御システムSの一例を示す図である。図2に示すように、実施形態に係る制御システムSは、端末装置1と、サーバ装置100とを含む。制御システムSにおいて、端末装置1と、サーバ装置100とはネットワークNを介して接続される。
ネットワークNは、LAN(Local Area Network)、WAN(Wide Area Network)、電話網(携帯電話網、固定電話網等)、地域IP(Internet Protocol)網、インターネット等の通信ネットワークである。ネットワークNには、有線ネットワークが含まれていてもよいし、無線ネットワークが含まれていてもよい。なお、図2では、1台のサーバ装置100を示したが、制御システムSには、複数台のサーバ装置100が含まれてもよい。
端末装置1は、上記したように、例えば、スマートデバイス等のユーザ端末である。端末装置1は、ユーザの操作に従って、サーバ装置100から所定のコンテンツの情報を取得することができる。
また、端末装置1は、角膜画像に基づいて、ユーザの把持状態を推定し、推定した把持状態に応じたコンテンツを提供することができる。なお、端末装置1の詳細な機能については後述する。
サーバ装置100は、端末装置1に対して各種コンテンツを提供する。例えば、サーバ装置100は、端末装置1にインストールされた各種アプリ(例えば、ポータルアプリ、ニュースアプリ、オークションサイト、天気予報アプリ、ショッピングアプリ、ファイナンス(株価)アプリ、路線検索アプリ、地図提供アプリ、旅行アプリ、飲食店紹介アプリ、ブログ閲覧アプリ等)に表示する情報を端末装置1に配信する装置である。あるいは、サーバ装置100は、ポータルサイト、ニュースサイト、オークションサイト、天気予報サイト、ショッピングサイト、ファイナンス(株価)サイト、路線検索サイト、地図提供サイト、旅行サイト、飲食店紹介サイト、ウェブブログなどに関連する各種情報がタイル状に配置されたウェブページを端末装置1に配信する装置である。また、サーバ装置100は、アプリのデータそのものを配信するサーバであってもよいし、ポータルサイト等のウェブページを配信するサーバであってもよい。
これらのコンテンツは、サーバ装置100が端末装置1に送信する制御情報に基づいて端末装置1の表示部8(図3参照)に表示される。制御情報とは、例えば、端末装置1にインストールされたアプリを制御するプログラムであってもよいし、コンテンツに埋め込まれたプログラムであってもよい。例えば、制御情報は、JavaScript(登録商標)等のスクリプト言語で記載されたプログラムであってもよい。また、制御情報は、スクリプト言語以外のコンピュータ言語で記載された情報であってもよい。例えば、制御情報は、CSS3(Cascading Style Sheets 3)等のスタイルシート言語で記載された情報であってもよい。また、制御情報は、Java(登録商標)、Swift、C言語、C++等のプログラミング言語で記載され、コンパイル等されたプログラムであってもよい。コンテンツ配信サーバ等のサーバから配信されるアプリケーションソフトそのものを制御情報とみなすことも可能である。このとき、コンテンツの情報は、制御情報に含まれていてもよい。なお、最終的に端末装置1がプログラムを実行できるのであれば、制御情報は、コンパイルされたプログラムでなくてもよい。その他、制御情報は、インタプリタ言語(例えば、スクリプト言語)、機械言語、あるいは中間言語の形式で提供されるデータ(プログラム)であってもよい。
なお、サーバ装置100は、1台のサーバ装置100によって上記したすべてのコンテンツを配信してもよく、複数のサーバ装置100それぞれが対応するコンテンツを配信してもよい。
〔端末装置の構成〕
次に、図3を用いて、端末装置1の構成例について説明する。図3は、端末装置1の機能構成例を示すブロック図である。図3に示されるように、端末装置1は、通信部2と、記憶部3と、制御部4と、カメラ5と、照度センサ6と、ジャイロセンサ7と、表示部8とを有する。
カメラ5は、端末装置1に内蔵されたいわゆるインカメラである。例えば、カメラ5は、端末装置1において、表示部8と同一の面に配置される。つまり、カメラ5は、表示部8を見ているユーザの顔を撮像可能な位置に配置される。カメラ5は、撮像したユーザの顔画像を制御部4へ出力する。
照度センサ6は、端末装置1の周囲の明暗を示す照度を検出するセンサである。照度センサ6は、検出した照度の情報を制御部4へ出力する。
ジャイロセンサ7は、端末装置1の傾きや回転等の姿勢を検出するセンサである。ジャイロセンサ7は、検出した端末装置1の姿勢の情報を制御部4へ出力する。
表示部8は、例えば、液晶ディスプレイであり、制御部4の制御に従って各種情報を表示することができる。なお、表示部8は、タッチパネル機能を有してもよい。
通信部2は、例えば、NIC(Network Interface Card)等によって実現される。通信部2は、有線または無線によりネットワーク網と接続される。通信部2は、サーバ装置100に、ネットワークNを介して、通信可能に接続され、サーバ装置100との間で、情報の送受信を行うことができる。
記憶部3は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。図3に示されるように、記憶部3は、モデル情報31を有する。
モデル情報31は、後述する推定部42に用いられる情報であって、端末装置1におけるユーザの把持状態を推定するための学習モデルを含む情報である。モデル情報31におけるモデルを用いることで、予め分類された複数の把持状態のうちのいずれかの把持状態を示すスコアを算出することができる。
かかるモデルは、例えば、各把持状態の際に撮像したカメラ5の角膜画像を説明変数とし、対応する把持状態を目的変数として生成することができる。つまり、モデルは、角膜画像と把持状態とをデータセットとして学習することで生成される。学習アルゴリズムは、例えば、CNN(Convolutional Neural Network)を用いることができるが、これに限定される任意の学習アルゴリズムを用いることができる。
なお、モデルに用いる角膜画像は、角膜で反射した反射領域(詳細は後述する)の画像を抽出して説明変数として用いてもよい。
なお、説明変数には、ユーザの手の特徴情報(指の長さや、手の大きさ等)や、カメラ5の性能情報(解像度や、拡大・縮小率等)、照度センサ6による照度、虹彩の色等の情報がさらに含まれてもよい。
制御部4は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等のプロセッサによって、端末装置1内部の記憶装置に記憶されている各種プログラム(制御プログラムの一例に相当)がRAM等を作業領域として実行されることにより実現される。また、制御部4は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、GPGPU(General Purpose Graphic Processing Unit)等の集積回路により実現されてもよい。
制御部4は、図3に示されるように、取得部41と、推定部42と、提供部43とを有し、以下に説明する制御処理の機能や作用を実現又は実行する。また、制御部4は、図1を参照して上述した制御処理を実現することができる。端末装置1の1つまたは複数のプロセッサは、端末装置1の1つまたは複数のメモリに記憶された命令を実行することによって、制御部4内の各制御部の機能を実現することができる。なお、制御部4の内部構成は、図3に示した構成に限られず、後述する制御処理を行う構成であれば他の構成であってもよい。例えば、取得部41は、取得部41以外の部に関して後述する制御処理の全部または一部を行ってもよい。
取得部41は、各種情報を取得する。例えば、取得部41は、カメラ5によって撮像された顔画像に基づいてユーザの角膜を含む角膜画像を取得する。具体的には、取得部41は、取得した顔画像からパターンマッチング等の画像解析処理により、角膜の領域を抽出することで角膜画像を取得する。なお、顔画像をそのまま角膜画像として取得してもよい。角膜画像は、ユーザの左右のいずれかの目、あるいは、両目の画像である。
また、カメラ5による角膜画像の取得(撮像)タイミングは、例えば、ユーザが表示部8をタッチ操作したタイミングである。あるいは、かかるタイミングは、例えば、ジャイロセンサ7による端末装置1の姿勢変化を検出したタイミングであってもよい。換言すれば、ユーザが端末装置1を把持することで姿勢が変化したタイミングで角膜画像を取得するようにする。
なお、取得部41は、表示部8に特定の輝度の単一画像(白画像)を表示した状態で撮像された角膜画像を取得するようにしてもよい。これにより、反射領域Rに映る表示部領域R1を鮮明にできるため、後段の推定部42における把持状態の推定精度を高めることができる。また、単一画像は、ユーザに知覚されにくい程度のフレーム数で表示することが好ましい。これにより、ユーザに違和感を与えることなく角膜画像を取得することができる。
また、取得部41は、照度センサ6により検出された端末装置1の周囲の照度を取得する。また、取得部41は、ジャイロセンサ7により検出された端末装置1の姿勢を取得する。
推定部42は、取得部41によって取得された角膜画像のうち、角膜で反射する反射領域Rの画像に基づいて、端末装置1におけるユーザの把持状態を推定する。具体的には、推定部42は、まず、角膜画像から反射領域Rを抽出する。例えば、推定部42は、角膜画像のエッジ検出や、パターンマッチング等の画像解析により、瞳孔および虹彩の領域を反射領域Rとして抽出する。なお、反射領域Rは、瞳孔および虹彩のいずれか一方の領域であってもよい。
つづいて、推定部42は、反射領域Rに表示部領域R1および指領域R2のうち、少なくとも表示部領域R1が含まれるか否か判定する。推定部42は、反射領域Rに表示部領域R1が含まれる場合、モデル情報31におけるモデルに反射領域Rの画像を入力し、モデルからの出力結果を把持状態として推定する。一方、推定部42は、反射領域Rに表示部領域R1が含まれないと判定した場合には、モデルに入力せずに反射領域Rの画像を破棄する。すなわち、把持状態の推定を行わない。これにより、不要な推定処理を減らすことができるため、制御部4の負荷を抑えることができる。
なお、推定部42は、反射領域Rに表示部領域R1が含まれるか否かの判定を行わずにモデルに反射領域Rの画像を入力してもよい。換言すれば、モデルが反射領域Rに表示部領域R1が含まれるか否かを判定する機能を有してもよい。
推定結果である把持状態には、ユーザが端末装置1を左右のどちらの手、あるいは両手で把持しているかの情報や、どの指で表示部8を操作しているかの情報、表示部8のどの位置をタッチ操作している(しようとしている)かの情報、机等の据置台に据え置いているかの情報が含まれ得る。つまり、推定部42は、把持状態として、端末装置1を把持する手、端末装置1の表示部8を操作する指および表示部8への操作位置の少なくとも1つを推定する。
また、推定部42は、把持状態に加えて、タッチペン等のポインティングデバイスを使用して表示部8にタッチ操作しているかの情報を推定可能である。かかる推定は、角膜画像を説明変数として、ポインティングデバイスの使用の有無の情報を目的変数とするモデルを学習により生成することで推定可能である。つまり、推定部42は、把持状態として、ポインティングデバイスによる操作の有無を推定する。
また、推定部42は、照度センサ6によって検出された照度に応じて角膜画像の輝度を調整(補正)してからモデルに入力するようにしてもよい。これにより、モデルからの出力結果である把持状態の推定精度を高めることができる。
提供部43は、推定部42によって推定された把持状態に応じたコンテンツを提供する。例えば、提供部43は、図1に示したように、表示部8に表示されたアイコン画像8aの位置を把持状態に応じて移動させる。なお、図1では、すべてのアイコン画像8aを把持している手の近くに移動させる例を示したが、例えば、ユーザが予め指定したアイコン画像8aのみや、使用頻度が上位の所定数のアイコン画像8aのみを移動させてもよい。移動後の位置は、把持している手の指のリーチ範囲内であることが好ましい。リーチ範囲は、予めユーザから入力により取得することができる。
また、アイコン画像8aに限らず、ホームボタンや戻るボタン、広告コンテンツ等の他のインタラクティブ要素を把持している手の近くに移動させてもよい。換言すれば、アイコン画像8a等のインタラクティブ要素をリーチ範囲外に配置しないようにする。
また、提供部43は、推定した把持状態に応じて、端末装置1の設定モードを変更するようにしてもよい。具体的には、提供部43は、把持状態に応じてウェブコンテンツ等のモードを切り替えるようにしてもよい。具体的には、提供部43は、右手で把持している場合には、ブラウザをシークレットモードで起動し、左手で把持している場合には、通常モードで起動するようにしてもよい。このようなモード切替の設定は、ユーザによって事前に設定されてもよく、予め定められていてもよい。
また、このようなモード切替の例として、ポインティングデバイスの使用有無に応じて切り替えることができる。提供部43は、例えば、ポインティングデバイスを使用して操作していることが推定された場合には、ポインティングデバイスによる書込みモードに切り替え、指で操作している(ポインティングデバイスを使用していない)ことが推定された場合には、画面をスクロールするモードに切り替える。
また、このようなモード切替は、左右のどちらの手で把持しているかにより行われる場合に限らず、操作部位により行われてもよい。例えば、提供部43は、指、爪、拳(ナックル)、指の関節のいずれの部位で操作が行われるかに応じたモード切替(あるいはコンテンツ提供)を行ってもよい。
また、提供部43は、推定した把持状態の継続時間に基づいて、ユーザの疲労度合いに関するコンテンツを提供してもよい。例えば、提供部43は、同じ手で所定時間以上把持している状態が続いた場合には、疲労が蓄積している旨や、腱鞘炎(ドケルバン病)を発症する可能性がある旨の警告情報を通知してもよい。また、提供部43は、左右の一方の手で所定時間以上把持している状態が続いた場合には、他方の手(あるいは両手)で端末装置1を把持するよう提案してもよい。
ここで、表示部8を見る際に、端末装置1を左右方向のいずれかに過度に傾けた場合には、左目から表示部8までの距離と、右目から表示部8までの距離とに差が生じることで眼精疲労を起こす可能性がある。そこで、提供部43は、表示部8の正しい見方をガイドするコンテンツを提供する。具体的には、提供部43は、ジャイロセンサ7によって端末装置1が左右方向に所定以上傾いた場合に、角膜画像に表示部領域R1が映らない時には、眼精疲労の可能性を通知し、正しい角度や距離で表示部8を見るようガイドする。
より具体的には、提供部43は、端末装置1の傾きに基づいて、角膜画像に表示部領域R1や指領域R2が映るまで端末装置1の傾きを変更するよう通知する。例えば、提供部43は、端末装置1が右方向に傾いている場合には、左方向に傾けるよう通知する。
また、提供部43は、角膜画像に映った表示部領域R1のサイズ(面積)が所定値以上である場合には、端末装置1をユーザから離すよう指示し、表示部領域R1のサイズ(面積)が所定値未満である場合には、端末装置1をユーザに近づけるよう指示する。つまり、提供部43は、端末装置1とユーザとの距離が適切となるまで端末装置1を移動させるよう指示する。
〔処理フロー〕
次に、図4を参照して、実施形態に係る端末装置1による処理の手順について説明する。図4は、実施形態に係る端末装置1によって実行される処理の一例を示すフローチャートである。
図4に示すように、取得部41は、まず、カメラ5によって撮像された画像に基づいて、角膜画像を取得する(ステップS101)。つづいて、推定部42は、角膜画像のうち、角膜で反射する反射領域の画像に基づいて、端末装置1におけるユーザの把持状態を推定する(ステップS102)。つづいて、提供部43は、推定された把持状態に応じたコンテンツを提供し(ステップS103)、処理を終了する。
〔その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の一部を手動的に行うこともできる。あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
例えば、図3に示した記憶部3の一部又は全部は、端末装置1によって保持されるのではなく、ストレージサーバ等に保持されてもよい。この場合、端末装置1は、ストレージサーバにアクセスすることで、各種情報を取得する。
〔ハードウェア構成〕
また、上述してきた実施形態に係る端末装置1は、例えば図5に示すような構成のコンピュータ1000によって実現される。図5は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。一次記憶装置1040は、RAM等、演算装置1030が各種の演算に用いるデータを一時的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等により実現される。
出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。
なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置であってもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体であってもよい。
ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。
演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。
例えば、コンピュータ1000が端末装置1として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部4の機能を実現する。
〔効果〕
上述してきたように、実施形態に係る端末装置1は、取得部41と、推定部42と、提供部43とを備える。取得部41は、ユーザが所持する端末装置1に内蔵されたカメラ5によって撮像されたユーザの角膜を示す角膜画像を取得する。推定部42は、角膜画像のうち、角膜で反射する反射領域Rの画像に基づいて、端末装置1におけるユーザの把持状態を推定する。提供部43は、推定部42によって推定された把持状態に応じたコンテンツを提供する。推定部42は、各把持状態の際に撮像された角膜画像を説明変数とし、対応する把持状態を目的変数として生成したモデルを用いて把持状態を推定する。推定部42は、角膜のうち、瞳孔および虹彩の少なくとも一方を含む領域を反射領域Rとして抽出する。推定部42は、把持状態として、端末装置1を把持する手、端末装置1の表示部8を操作する指および表示部8への操作位置の少なくとも1つを推定する。推定部42は、把持状態として、ポインティングデバイスによる操作の有無を推定する。取得部41は、端末装置1の周囲の照度を検出する照度センサ6から照度の情報を取得する。推定部42は、照度に基づいて角膜画像の輝度を補正し、補正後の角膜画像を用いて把持状態を推定する。取得部41は、端末装置1の表示部8に特定の輝度の単一画像を表示した状態で撮像された角膜画像を取得する。提供部43は、表示部8に表示されるインタラクティブ要素を推定部42によって推定された把持状態に応じた位置に移動させる。提供部43は、推定部42によって推定された把持状態の継続時間に基づいて、ユーザの疲労度合いに関するコンテンツを提供する。提供部43は、推定部42によって推定された把持状態に応じて、端末装置1の設定モードを変更する。これにより、ユーザに対して適切なコンテンツを提供することができる。
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
〔その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
また、上述してきた実施形態に記載した各処理は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
また、上記してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、制御部4は、制御手段や制御回路に読み替えることができる。
1 端末装置
2 通信部
3 記憶部
4 制御部
5 カメラ
6 照度センサ
7 ジャイロセンサ
8 表示部
31 モデル情報
41 取得部
42 推定部
43 提供部
100 サーバ装置
N ネットワーク
S 制御システム

Claims (12)

  1. ユーザが所持する端末装置に内蔵されたカメラによって撮像された前記ユーザの角膜を示す角膜画像を取得する取得部と、
    前記角膜画像のうち、前記角膜で反射する反射領域の画像に基づいて、前記端末装置における前記ユーザの把持状態を推定する推定部と、
    前記推定部によって推定された前記把持状態に応じたコンテンツを提供する提供部と
    を備えることを特徴とする端末装置。
  2. 前記推定部は、
    各把持状態の際に撮像された前記角膜画像を説明変数とし、対応する前記把持状態を目的変数として生成したモデルを用いて前記把持状態を推定すること
    を特徴とする請求項1に記載の端末装置。
  3. 前記推定部は、
    前記角膜のうち、瞳孔および虹彩の少なくとも一方を含む領域を前記反射領域として抽出すること
    を特徴とする請求項1または2に記載の端末装置。
  4. 前記推定部は、
    前記把持状態として、前記端末装置を把持する手、前記端末装置の表示部を操作する指および前記表示部への操作位置の少なくとも1つを推定すること
    を特徴とする請求項1~3のいずれか1つに記載の端末装置。
  5. 前記推定部は、
    前記把持状態として、ポインティングデバイスによる操作の有無を推定すること
    を特徴とする請求項1~4のいずれか1つに記載の端末装置。
  6. 前記取得部は、
    前記端末装置の周囲の照度を検出する照度センサから前記照度の情報を取得し、
    前記推定部は、
    前記照度に基づいて前記角膜画像の輝度を補正し、補正後の前記角膜画像を用いて前記把持状態を推定すること
    を特徴とする請求項1~5のいずれか1つに記載の端末装置。
  7. 前記取得部は、
    前記端末装置の表示部に特定の輝度の単一画像を表示した状態で撮像された前記角膜画像を取得すること
    を特徴とする請求項1~6のいずれか1つに記載の端末装置。
  8. 前記提供部は、
    前記端末装置の表示部に表示されるインタラクティブ要素を前記推定部によって推定された前記把持状態に応じた位置に移動させること
    を特徴とする請求項1~7のいずれか1つに記載の端末装置。
  9. 前記提供部は、
    前記推定部によって推定された前記把持状態の継続時間に基づいて、前記ユーザの疲労度合いに関するコンテンツを提供すること
    を特徴とする請求項1~8のいずれか1つに記載の端末装置。
  10. 前記提供部は、
    前記推定部によって推定された前記把持状態に応じて、前記端末装置の設定モードを変更すること
    を特徴とする請求項1~9のいずれか1つに記載の端末装置。
  11. 端末装置が実行する制御方法であって、
    ユーザが所持する端末装置に内蔵されたカメラによって撮像された前記ユーザの角膜を示す角膜画像を取得する取得工程と、
    前記角膜画像のうち、前記角膜で反射する反射領域の画像に基づいて、前記端末装置における前記ユーザの把持状態を推定する推定工程と、
    前記推定工程によって推定された前記把持状態に応じたコンテンツを提供する提供工程と
    を含むことを特徴とする端末装置の制御方法。
  12. ユーザが所持する端末装置に内蔵されたカメラによって撮像された前記ユーザの角膜を示す角膜画像を取得する取得手順と、
    前記角膜画像のうち、前記角膜で反射する反射領域の画像に基づいて、前記端末装置における前記ユーザの把持状態を推定する推定手順と、
    前記推定手順によって推定された前記把持状態に応じたコンテンツを提供する提供手順と
    をコンピュータに実行させることを特徴とする端末装置の制御プログラム。
JP2021070510A 2021-04-19 2021-04-19 端末装置、端末装置の制御方法および端末装置の制御プログラム Active JP7314196B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021070510A JP7314196B2 (ja) 2021-04-19 2021-04-19 端末装置、端末装置の制御方法および端末装置の制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021070510A JP7314196B2 (ja) 2021-04-19 2021-04-19 端末装置、端末装置の制御方法および端末装置の制御プログラム

Publications (2)

Publication Number Publication Date
JP2022165237A true JP2022165237A (ja) 2022-10-31
JP7314196B2 JP7314196B2 (ja) 2023-07-25

Family

ID=83845705

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021070510A Active JP7314196B2 (ja) 2021-04-19 2021-04-19 端末装置、端末装置の制御方法および端末装置の制御プログラム

Country Status (1)

Country Link
JP (1) JP7314196B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013012880A (ja) * 2011-06-29 2013-01-17 Ntt Docomo Inc 移動情報端末、配置領域取得方法、プログラム
US20160216837A1 (en) * 2014-10-22 2016-07-28 Telefonaktiebolaget L M Ericsson (Publ) Method and device for providing a touch-based user interface
JP2017510868A (ja) * 2014-01-21 2017-04-13 マイクロソフト テクノロジー ライセンシング,エルエルシー 把持状態検出
JP2020135306A (ja) * 2019-02-18 2020-08-31 セイコーエプソン株式会社 表示システム、情報処理装置の制御プログラム、及び情報処理装置の制御方法
US20210103732A1 (en) * 2019-10-03 2021-04-08 Nokia Technologies Oy Alerts based on corneal reflections

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013012880A (ja) * 2011-06-29 2013-01-17 Ntt Docomo Inc 移動情報端末、配置領域取得方法、プログラム
JP2017510868A (ja) * 2014-01-21 2017-04-13 マイクロソフト テクノロジー ライセンシング,エルエルシー 把持状態検出
US20160216837A1 (en) * 2014-10-22 2016-07-28 Telefonaktiebolaget L M Ericsson (Publ) Method and device for providing a touch-based user interface
JP2020135306A (ja) * 2019-02-18 2020-08-31 セイコーエプソン株式会社 表示システム、情報処理装置の制御プログラム、及び情報処理装置の制御方法
US20210103732A1 (en) * 2019-10-03 2021-04-08 Nokia Technologies Oy Alerts based on corneal reflections

Also Published As

Publication number Publication date
JP7314196B2 (ja) 2023-07-25

Similar Documents

Publication Publication Date Title
JP5915000B2 (ja) 情報処理装置及びプログラム
US20190250714A1 (en) Systems and methods for triggering actions based on touch-free gesture detection
EP3180687B1 (en) Hover-based interaction with rendered content
JP5387557B2 (ja) 情報処理装置及び方法、並びにプログラム
JP4275151B2 (ja) ユーザが調整可能な閾値を用いる赤目補正方法及び装置
JP5768457B2 (ja) 電子機器、表示方法及びプログラム
CN107479691B (zh) 一种交互方法及其智能眼镜和存储装置
US20120092381A1 (en) Snapping User Interface Elements Based On Touch Input
WO2012138744A1 (en) Gaze-based content display
JP5344651B2 (ja) 情報処理装置、制御方法、プログラム、および情報処理システム
JP6973025B2 (ja) 表示装置、画像処理装置及びプログラム
KR20170009979A (ko) 터치 입력을 위한 방법 및 시스템
Kjeldsen Head gestures for computer control
US20160147294A1 (en) Apparatus and Method for Recognizing Motion in Spatial Interaction
WO2018154981A1 (ja) 画像処理装置、プログラム及び画像処理方法
JP6758922B2 (ja) 電子機器及びその制御方法
WO2016110259A1 (en) Content acquiring method and apparatus, and user equipment
JP7314196B2 (ja) 端末装置、端末装置の制御方法および端末装置の制御プログラム
JP5974809B2 (ja) 表示装置、表示制御方法及び表示制御プログラム
US9898183B1 (en) Motions for object rendering and selection
EP3316109B1 (en) Computer-implemented method for controlling a remote device with a local device
WO2017016333A1 (zh) 一种屏幕调整方法及装置
JP2015022675A (ja) 電子機器、インターフェース制御方法、および、プログラム
JP6327834B2 (ja) 操作表示装置、操作表示方法及びプログラム
KR20120062053A (ko) 터치스크린의 가상 캐릭터 제어방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220809

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230712

R150 Certificate of patent or registration of utility model

Ref document number: 7314196

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350