JP2022165237A - 端末装置、端末装置の制御方法および端末装置の制御プログラム - Google Patents
端末装置、端末装置の制御方法および端末装置の制御プログラム Download PDFInfo
- Publication number
- JP2022165237A JP2022165237A JP2021070510A JP2021070510A JP2022165237A JP 2022165237 A JP2022165237 A JP 2022165237A JP 2021070510 A JP2021070510 A JP 2021070510A JP 2021070510 A JP2021070510 A JP 2021070510A JP 2022165237 A JP2022165237 A JP 2022165237A
- Authority
- JP
- Japan
- Prior art keywords
- terminal device
- unit
- user
- image
- estimated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 210000004087 cornea Anatomy 0.000 claims abstract description 22
- 230000002452 interceptive effect Effects 0.000 claims description 4
- 210000001747 pupil Anatomy 0.000 claims description 4
- 210000003811 finger Anatomy 0.000 description 13
- 230000008569 process Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 210000004247 hand Anatomy 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 210000003813 thumb Anatomy 0.000 description 3
- 208000003464 asthenopia Diseases 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 206010034719 Personality change Diseases 0.000 description 1
- 208000004760 Tenosynovitis Diseases 0.000 description 1
- 208000012208 de Quervain disease Diseases 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000001145 finger joint Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 210000004935 right thumb Anatomy 0.000 description 1
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Eye Examination Apparatus (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
〔端末装置の制御処理の概要〕
まず、図1を参照して、本開示の例示的な実施形態について詳細に説明する。図1は、実施形態に係る端末装置の制御処理の一例を示す図である。端末装置の制御処理は、実施形態に係る端末装置1が制御方法を実行することで行われる処理である。
次に、図2を参照して、端末装置1を含むシステムの構成例について説明する。
図2は、実施形態に係る制御システムSの一例を示す図である。図2に示すように、実施形態に係る制御システムSは、端末装置1と、サーバ装置100とを含む。制御システムSにおいて、端末装置1と、サーバ装置100とはネットワークNを介して接続される。
次に、図3を用いて、端末装置1の構成例について説明する。図3は、端末装置1の機能構成例を示すブロック図である。図3に示されるように、端末装置1は、通信部2と、記憶部3と、制御部4と、カメラ5と、照度センサ6と、ジャイロセンサ7と、表示部8とを有する。
次に、図4を参照して、実施形態に係る端末装置1による処理の手順について説明する。図4は、実施形態に係る端末装置1によって実行される処理の一例を示すフローチャートである。
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の一部を手動的に行うこともできる。あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、上述してきた実施形態に係る端末装置1は、例えば図5に示すような構成のコンピュータ1000によって実現される。図5は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
上述してきたように、実施形態に係る端末装置1は、取得部41と、推定部42と、提供部43とを備える。取得部41は、ユーザが所持する端末装置1に内蔵されたカメラ5によって撮像されたユーザの角膜を示す角膜画像を取得する。推定部42は、角膜画像のうち、角膜で反射する反射領域Rの画像に基づいて、端末装置1におけるユーザの把持状態を推定する。提供部43は、推定部42によって推定された把持状態に応じたコンテンツを提供する。推定部42は、各把持状態の際に撮像された角膜画像を説明変数とし、対応する把持状態を目的変数として生成したモデルを用いて把持状態を推定する。推定部42は、角膜のうち、瞳孔および虹彩の少なくとも一方を含む領域を反射領域Rとして抽出する。推定部42は、把持状態として、端末装置1を把持する手、端末装置1の表示部8を操作する指および表示部8への操作位置の少なくとも1つを推定する。推定部42は、把持状態として、ポインティングデバイスによる操作の有無を推定する。取得部41は、端末装置1の周囲の照度を検出する照度センサ6から照度の情報を取得する。推定部42は、照度に基づいて角膜画像の輝度を補正し、補正後の角膜画像を用いて把持状態を推定する。取得部41は、端末装置1の表示部8に特定の輝度の単一画像を表示した状態で撮像された角膜画像を取得する。提供部43は、表示部8に表示されるインタラクティブ要素を推定部42によって推定された把持状態に応じた位置に移動させる。提供部43は、推定部42によって推定された把持状態の継続時間に基づいて、ユーザの疲労度合いに関するコンテンツを提供する。提供部43は、推定部42によって推定された把持状態に応じて、端末装置1の設定モードを変更する。これにより、ユーザに対して適切なコンテンツを提供することができる。
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
2 通信部
3 記憶部
4 制御部
5 カメラ
6 照度センサ
7 ジャイロセンサ
8 表示部
31 モデル情報
41 取得部
42 推定部
43 提供部
100 サーバ装置
N ネットワーク
S 制御システム
Claims (12)
- ユーザが所持する端末装置に内蔵されたカメラによって撮像された前記ユーザの角膜を示す角膜画像を取得する取得部と、
前記角膜画像のうち、前記角膜で反射する反射領域の画像に基づいて、前記端末装置における前記ユーザの把持状態を推定する推定部と、
前記推定部によって推定された前記把持状態に応じたコンテンツを提供する提供部と
を備えることを特徴とする端末装置。 - 前記推定部は、
各把持状態の際に撮像された前記角膜画像を説明変数とし、対応する前記把持状態を目的変数として生成したモデルを用いて前記把持状態を推定すること
を特徴とする請求項1に記載の端末装置。 - 前記推定部は、
前記角膜のうち、瞳孔および虹彩の少なくとも一方を含む領域を前記反射領域として抽出すること
を特徴とする請求項1または2に記載の端末装置。 - 前記推定部は、
前記把持状態として、前記端末装置を把持する手、前記端末装置の表示部を操作する指および前記表示部への操作位置の少なくとも1つを推定すること
を特徴とする請求項1~3のいずれか1つに記載の端末装置。 - 前記推定部は、
前記把持状態として、ポインティングデバイスによる操作の有無を推定すること
を特徴とする請求項1~4のいずれか1つに記載の端末装置。 - 前記取得部は、
前記端末装置の周囲の照度を検出する照度センサから前記照度の情報を取得し、
前記推定部は、
前記照度に基づいて前記角膜画像の輝度を補正し、補正後の前記角膜画像を用いて前記把持状態を推定すること
を特徴とする請求項1~5のいずれか1つに記載の端末装置。 - 前記取得部は、
前記端末装置の表示部に特定の輝度の単一画像を表示した状態で撮像された前記角膜画像を取得すること
を特徴とする請求項1~6のいずれか1つに記載の端末装置。 - 前記提供部は、
前記端末装置の表示部に表示されるインタラクティブ要素を前記推定部によって推定された前記把持状態に応じた位置に移動させること
を特徴とする請求項1~7のいずれか1つに記載の端末装置。 - 前記提供部は、
前記推定部によって推定された前記把持状態の継続時間に基づいて、前記ユーザの疲労度合いに関するコンテンツを提供すること
を特徴とする請求項1~8のいずれか1つに記載の端末装置。 - 前記提供部は、
前記推定部によって推定された前記把持状態に応じて、前記端末装置の設定モードを変更すること
を特徴とする請求項1~9のいずれか1つに記載の端末装置。 - 端末装置が実行する制御方法であって、
ユーザが所持する端末装置に内蔵されたカメラによって撮像された前記ユーザの角膜を示す角膜画像を取得する取得工程と、
前記角膜画像のうち、前記角膜で反射する反射領域の画像に基づいて、前記端末装置における前記ユーザの把持状態を推定する推定工程と、
前記推定工程によって推定された前記把持状態に応じたコンテンツを提供する提供工程と
を含むことを特徴とする端末装置の制御方法。 - ユーザが所持する端末装置に内蔵されたカメラによって撮像された前記ユーザの角膜を示す角膜画像を取得する取得手順と、
前記角膜画像のうち、前記角膜で反射する反射領域の画像に基づいて、前記端末装置における前記ユーザの把持状態を推定する推定手順と、
前記推定手順によって推定された前記把持状態に応じたコンテンツを提供する提供手順と
をコンピュータに実行させることを特徴とする端末装置の制御プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021070510A JP7314196B2 (ja) | 2021-04-19 | 2021-04-19 | 端末装置、端末装置の制御方法および端末装置の制御プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021070510A JP7314196B2 (ja) | 2021-04-19 | 2021-04-19 | 端末装置、端末装置の制御方法および端末装置の制御プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022165237A true JP2022165237A (ja) | 2022-10-31 |
JP7314196B2 JP7314196B2 (ja) | 2023-07-25 |
Family
ID=83845705
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021070510A Active JP7314196B2 (ja) | 2021-04-19 | 2021-04-19 | 端末装置、端末装置の制御方法および端末装置の制御プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7314196B2 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013012880A (ja) * | 2011-06-29 | 2013-01-17 | Ntt Docomo Inc | 移動情報端末、配置領域取得方法、プログラム |
US20160216837A1 (en) * | 2014-10-22 | 2016-07-28 | Telefonaktiebolaget L M Ericsson (Publ) | Method and device for providing a touch-based user interface |
JP2017510868A (ja) * | 2014-01-21 | 2017-04-13 | マイクロソフト テクノロジー ライセンシング,エルエルシー | 把持状態検出 |
JP2020135306A (ja) * | 2019-02-18 | 2020-08-31 | セイコーエプソン株式会社 | 表示システム、情報処理装置の制御プログラム、及び情報処理装置の制御方法 |
US20210103732A1 (en) * | 2019-10-03 | 2021-04-08 | Nokia Technologies Oy | Alerts based on corneal reflections |
-
2021
- 2021-04-19 JP JP2021070510A patent/JP7314196B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013012880A (ja) * | 2011-06-29 | 2013-01-17 | Ntt Docomo Inc | 移動情報端末、配置領域取得方法、プログラム |
JP2017510868A (ja) * | 2014-01-21 | 2017-04-13 | マイクロソフト テクノロジー ライセンシング,エルエルシー | 把持状態検出 |
US20160216837A1 (en) * | 2014-10-22 | 2016-07-28 | Telefonaktiebolaget L M Ericsson (Publ) | Method and device for providing a touch-based user interface |
JP2020135306A (ja) * | 2019-02-18 | 2020-08-31 | セイコーエプソン株式会社 | 表示システム、情報処理装置の制御プログラム、及び情報処理装置の制御方法 |
US20210103732A1 (en) * | 2019-10-03 | 2021-04-08 | Nokia Technologies Oy | Alerts based on corneal reflections |
Also Published As
Publication number | Publication date |
---|---|
JP7314196B2 (ja) | 2023-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5915000B2 (ja) | 情報処理装置及びプログラム | |
US20190250714A1 (en) | Systems and methods for triggering actions based on touch-free gesture detection | |
EP3180687B1 (en) | Hover-based interaction with rendered content | |
JP5387557B2 (ja) | 情報処理装置及び方法、並びにプログラム | |
JP4275151B2 (ja) | ユーザが調整可能な閾値を用いる赤目補正方法及び装置 | |
JP5768457B2 (ja) | 電子機器、表示方法及びプログラム | |
CN107479691B (zh) | 一种交互方法及其智能眼镜和存储装置 | |
US20120092381A1 (en) | Snapping User Interface Elements Based On Touch Input | |
WO2012138744A1 (en) | Gaze-based content display | |
JP5344651B2 (ja) | 情報処理装置、制御方法、プログラム、および情報処理システム | |
JP6973025B2 (ja) | 表示装置、画像処理装置及びプログラム | |
KR20170009979A (ko) | 터치 입력을 위한 방법 및 시스템 | |
Kjeldsen | Head gestures for computer control | |
US20160147294A1 (en) | Apparatus and Method for Recognizing Motion in Spatial Interaction | |
WO2018154981A1 (ja) | 画像処理装置、プログラム及び画像処理方法 | |
JP6758922B2 (ja) | 電子機器及びその制御方法 | |
WO2016110259A1 (en) | Content acquiring method and apparatus, and user equipment | |
JP7314196B2 (ja) | 端末装置、端末装置の制御方法および端末装置の制御プログラム | |
JP5974809B2 (ja) | 表示装置、表示制御方法及び表示制御プログラム | |
US9898183B1 (en) | Motions for object rendering and selection | |
EP3316109B1 (en) | Computer-implemented method for controlling a remote device with a local device | |
WO2017016333A1 (zh) | 一种屏幕调整方法及装置 | |
JP2015022675A (ja) | 電子機器、インターフェース制御方法、および、プログラム | |
JP6327834B2 (ja) | 操作表示装置、操作表示方法及びプログラム | |
KR20120062053A (ko) | 터치스크린의 가상 캐릭터 제어방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220809 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230307 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230314 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230515 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230613 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230712 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7314196 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |