JP2019139411A - 携帯端末、携帯端末の制御方法、および携帯端末のプログラム - Google Patents

携帯端末、携帯端末の制御方法、および携帯端末のプログラム Download PDF

Info

Publication number
JP2019139411A
JP2019139411A JP2018020711A JP2018020711A JP2019139411A JP 2019139411 A JP2019139411 A JP 2019139411A JP 2018020711 A JP2018020711 A JP 2018020711A JP 2018020711 A JP2018020711 A JP 2018020711A JP 2019139411 A JP2019139411 A JP 2019139411A
Authority
JP
Japan
Prior art keywords
mobile terminal
user
display unit
image
predetermined time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018020711A
Other languages
English (en)
Other versions
JP7048339B2 (ja
Inventor
英貴 野本
Hidetaka Nomoto
英貴 野本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Platforms Ltd
Original Assignee
NEC Platforms Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Platforms Ltd filed Critical NEC Platforms Ltd
Priority to JP2018020711A priority Critical patent/JP7048339B2/ja
Priority to PCT/JP2019/004040 priority patent/WO2019156063A1/ja
Priority to US16/964,865 priority patent/US20210064130A1/en
Publication of JP2019139411A publication Critical patent/JP2019139411A/ja
Application granted granted Critical
Publication of JP7048339B2 publication Critical patent/JP7048339B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ophthalmology & Optometry (AREA)
  • Signal Processing (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】携帯端末を使用者が操作中か否かの判断を高い精度で行うことを可能にする携帯端末、携帯端末の制御方法、および携帯端末のプログラムを実現する。【解決手段】表示部を備える携帯端末であって、前記表示部と相対的に固定され前記携帯端末の使用者の眼球表面の画像を撮影する撮影部と、第1の所定の時間以内に、前記眼球表面の画像が、前記表示部に表示されている画像と一致する時間が第1の所定の時間より短い第2の所定時間以上であると、前記使用者が前記携帯端末を操作中であると判断する制御部とを備える。【選択図】 図1

Description

本発明は、携帯端末、携帯端末の制御方法、および携帯端末のプログラムに関するものである。
携帯電話、スマートフォン(smart phone)等の携帯端末の使用者が、歩きながら表示画面を見たり操作することで、他人や車と衝突したり、駅のホーム(platform)から転落するなどの事故が起こっていて、社会問題となっている。
そこで、特許文献1では、携帯端末が移動中に、使用者の目の視線の動きを検知して、使用者が表示部を見ながら移動していると判断されると、携帯端末の機能制限を行う技術を提示している。
特開2015−099493号公報
特許文献1による技術では、携帯端末の使用者の視線の動きによって、使用者が携帯端末を操作中か否かを判断している。
しかし、タブレット端末(tablet terminal)の様に、大きい画面の携帯端末の場合には、画面の表示範囲内を見ている場合でも、視線の動きは大きくなる。また、携帯端末の表示画面と使用者の目との距離が近い場合は、遠い場合と比べて視線の動きは大きくなる。
そのため、特許文献1に提示される様に、携帯端末の使用者の視線の動きを利用して、使用者が携帯端末を操作中か否かの判断を行うと、判定精度が低い問題がある。
本発明の目的は、上述した課題を鑑み、携帯端末を携帯端末の使用者が操作中か否かの判断を高い精度で行う携帯端末、携帯端末の制御方法、および携帯端末のプログラムを提供することにある。
上記の目的を達成するために、本発明の携帯端末は、表示部を備える携帯端末であって、前記表示部と相対的に固定され前記携帯端末の使用者の眼球表面の画像を撮影する撮影部と、第1の所定の時間以内に、前記眼球表面の画像が、前記表示部に表示されている画像と一致する時間が第1の所定の時間より短い第2の所定時間以上であると、前記使用者が前記携帯端末を操作中であると判断する制御部とを備える。
上記の目的を達成するために、本発明の携帯端末の制御方法は、第1の所定の時間以内に、携帯端末の使用者の眼球表面の画像が、前記携帯端末の表示部に表示されている画像と一致する時間が第1の所定の時間より短い第2の所定時間以上であると、前記使用者が前記携帯端末を操作中であると判断する。
上記の目的を達成するために、本発明の携帯端末のプログラムは、第1の所定の時間以内に、携帯端末の使用者の眼球表面の画像が、前記携帯端末の表示部に表示されている画像と一致する時間が第1の所定の時間より短い第2の所定時間以上であると、前記使用者が前記携帯端末を操作中であると判断することをコンピュータに実行させる。
本発明によれば、携帯端末、携帯端末の制御方法、および携帯端末のプログラムは、携帯端末を携帯端末の使用者が操作中か否かの判断を高い精度で行うことが可能となる。
第1および第2の実施形態の構成例を示す図である。 第2の実施形態の動作を説明する図である。 第3の実施形態の動作を説明する図である。 第4および第5の実施形態の構成例を示す図である。 第4の実施形態の動作を説明する図である。 第5の実施形態の動作を説明する図である。 第6および第7の実施形態の構成例を示す図である。 第6の実施形態の動作を説明する図である。 第7の実施形態の動作を説明する図である。
[第1の実施形態]
次に、本発明の実施の形態について図1を参照して詳細に説明する。
図1に第1の実施形態の構成を示す。
本実施形態の携帯端末10は、表示部11を備える携帯端末であって、前記表示部11と相対的に固定され前記携帯端末の使用者の眼球表面の画像を撮影する撮影部12と制御部13を備える。制御部13は、第1の所定の時間以内に、前記眼球表面の画像が、前記表示部11に表示されている画像と一致する時間が第1の所定の時間より短い第2の所定時間以上であると、前記使用者が前記携帯端末10を操作中であると判断する。
この様にすることで、携帯端末の使用者が携帯端末を操作中か否かの判断を、視線の動きのみで行うより高精度で行うことが可能となる。

[第2の実施形態]
次に、第2の実施形態について図1と図2を参照して説明する。
[構成の説明]
図1に第2の実施形態の構成を示す。
本実施形態の構成は第1の実施形態の構成と同じである。
携帯端末20は、表示部21、撮影部22、および制御部24を備える。
本実施形態の携帯端末20は、無線携帯端末であるスマートフォンを想定しているが、必ずしも無線携帯端末である必要はなく、無線機能の無い、携帯ビデオ(video)再生装置等であっても良い。
表示部21は、スマートフォンのタッチパネル(touch panel)を想定しており、表示手段と、指先が触れることによる入力手段とを兼ねている。しかし、必ずしも入力手段を備えていなくても、本実施形態に示す発明の主旨を損なわない。
撮影部22は、カメラ(camera)であって、表示部と同一面に固定されて使用者の顔を撮影できる、いわゆる内側カメラ(inner camera)である。尚、一般的なスマートフォンでは、内側カメラはタッチパネルと同一面に取付けられていることが多い。しかし、撮影部22は、携帯端末20の使用者の顔を撮影することが出来て、表示部と相対的に位置が固定されて設置されているカメラであっても良い。
制御部24は、CPU(Central Processing Unit;中央処理装置)を含み、携帯端末20のハードウェアを制御し、ソフトウェア処理を行う。
[動作の説明]
本実施形態の携帯端末10は、予め決められた時間T1(第1の所定時間)以内に、携帯端末10の利用者が表示部11を時間T2(第2の所定時間)以上見つめていると、利用者は携帯端末10を操作中であると判断する。
また、携帯端末10は、時間T1の間に、携帯端末10の利用者が表示部11を時間T2より短い時間しか見ていなければ、利用者は携帯端末10を操作中でないと判断する。
この様な携帯端末10を実現する、携帯端末10の動作について、図2を参照して説明する。
携帯端末10が動作を開始すると、制御部13は時間t1をゼロに設定し、時間t2をゼロに設定する(S101)。
時間の計時は、ここでは制御部13が備える時計機能を用いることを想定しているが、携帯端末10は、制御部13とは別に時計機能を備えることでもよい。
制御部13は、時間t1の計時を開始する(S102)。
制御部13は、撮影部12を動作して携帯端末10の使用者の眼球表面の画像を撮影する。そして、制御部13は、眼球表面に映っている画像を抽出する(S103)。
眼球表面の画像を抽出することは、現在、多く実現されている技術であるので説明を省略する。
ステップS104で、制御部13は、t1が時間T1以内であるかどうかを判断する(S104)。
ここで、時間T1は、予め決められた時間である。
ステップS104でt1が時間T1以内であると判断されると(S104でY)、ステップS105にすすむ。
ステップS104でt1が時間T1以内でないと判断されると(S104でN)、ステップS111にすすむ。
ステップS105で、制御部13は、眼球表面画像と表示部11の画像とが一致するかどうかを判断する(S105)。
携帯端末10の使用者が表示部11を見つめていると、眼球表面画像と表示部11の画像が一致する。ステップS105の判断は、携帯端末10の使用者が表示部11を見つめているか否かを判断している。
ステップS105で、眼球表面画像と表示部11の画像とが一致すると判断されると(S105でY)、ステップS106にすすむ。
ステップS105で、眼球表面画像と表示部11の画像とが一致しないと判断されると(S105でN)、ステップS110にすすむ。
ステップS106で、制御部13は、t2の計時を行う(S106)。
ここで、ステップS106の直前で、t2の計時が停止していた場合はt2の計時を開始し、t2が計時中の場合はt2の計時を継続する。
ステップS107で、制御部13は、t2が時間T2以上であるかどうかを判断する(S107)。
ここで、時間T2は、予め決められた時間であり、時間T1より短く設定されている。
ステップS107でt2が時間T2以上であると判断されると(S107でY)、ステップS108にすすむ。
ステップS107でt2が時間T2以上でないと判断されると(S107でN)、ステップS103にもどる。
ステップS108で、制御部13は、携帯端末10が使用者による操作中であると判断する(S108)。
ステップS108では、携帯端末10の使用者が、時間T1以内に時間T2以上、表示部11を見つめている状況である。この状況を携帯端末10が使用者による操作中であると判断している。
ステップS109では、制御部13は、一定時間が経過するまで待つ(S109)。
ステップS109の一定時間は、操作中か否かの判断をどの位の時間間隔で行うかによって決められる。
ステップS109のあと、ステップS101にもどる。
ステップS110では、制御部13は、t2の計時を停止する(S110)。
ステップS110の後、ステップS103に戻る。
ステップS111では、制御部13は、携帯端末10が使用者による操作中ではないと判断する(S111)。
ステップS111では、携帯端末10の使用者が、時間T1以内に時間T2以上、表示部11を見つめていない状況である。即ち、時間T1以内に、T2より短い時間しか表示部11を見つめていない。この様な状況では、携帯端末10が使用者による操作中ではないと判断している。
ステップS111のあと、ステップS109にすすむ。
ステップS108、およびステップS111で、制御部13が行った、携帯端末10が使用者によって操作中であるか否かの判断は、携帯端末10のアプリケーションソフトウェア(application software)の動作のための情報などとして利用可能である。
この様にすることで、本実施形態の携帯端末10は、携帯端末10の使用者が携帯端末10を操作中か否かの判断を、視線の動きのみで行うより高精度で行うことが可能となる。
[第3の実施形態]
次に、第3の実施形態について図1と図3を参照して説明する。
[構成の説明]
本実施形態の構成は、図1に示される第1および第2の実施形態の構成と同じであり、制御部13の動作が、第1および第2の実施形態と異なる。
[動作の説明]
本実施形態の携帯端末10は、予め決められた時間T以内に、携帯端末10の利用者が表示部11をN回見つめていると、利用者は携帯端末10を操作中であると判断する。
また、携帯端末10は、時間T以内に、携帯端末10の利用者が表示部11をN回より少ない回数しか見ていなければ、利用者は携帯端末10を操作中でないと判断する。
この様な携帯端末10を実現する、携帯端末10の動作について、図3を参照して説明する。
携帯端末10が動作を開始すると、制御部13は時計t1をゼロに設定し、カウンタ(counter)nをゼロに設定する(S201)。
時間の計時は、ここでは制御部13が備える時計機能を用いることを想定しているが、携帯端末10は、制御部13とは別に時計機能を備えることでもよい。
また、回数を計数するカウンタは、制御部13が備える計数機能を用いることを想定しているが、携帯端末10は、制御部13とは別にカウンタを備えることでもよい。
制御部13は、時間tの計時を開始する(S202)。
ステップS203は、第2の実施形態で説明した図2のステップS103と同じである(S203)。
ステップS204で、制御部13は、tが時間T以内であるかどうかを判断する(S204)。
ここで、時間Tは、前述した予め決められた時間である。
ステップS204でtが時間T以内であると判断されると(S204でY)、ステップS205にすすむ。
ステップS204でt1が時間T1以内でないと判断されると(S204でN)、ステップS210にすすむ。
ステップS205で、制御部13は、眼球表面画像と表示部11の画像とが一致するかどうかを判断する(S205)。
携帯端末10の使用者が表示部11を見つめていると、眼球表面画像と表示部11の画像が一致する。ステップS205の判断は、携帯端末10の使用者が表示部11を見つめているか否かを判断している。
ステップS205で、眼球表面画像と表示部11の画像とが一致すると判断されると(S205でY)、ステップS206にすすむ。
ステップS205で、眼球表面画像と表示部11の画像とが一致しないと判断されると(S205でN)、ステップS203にもどる。
ステップS206で、制御部13は、カウンタnを1つ加算する(S206)。
ステップS207で、制御部13は、カウンタnが回数Nであるかどうかを判断する(S207)。
ここで、回数Nは、予め決められた回数である。
ステップS207でnが回数Nであると判断されると(S207でY)、ステップS208にすすむ。
ステップS207でnが回数Nでないと判断されると(S207でN)、ステップS209にすすむ。
ステップS208で、制御部13は、携帯端末10が使用者によって操作中であると判断する(S208)。
ステップS208では、携帯端末10の使用者が、時間T以内にN回、表示部11を見つめている状況である。この状況を携帯端末10が使用者による操作中であると判断している。
ステップS208のあと、ステップS201にもどる。
ステップS209では、制御部13は、一定時間待機する(S209)。
この待機時間の設定は、時間Tと回数Nの設定と共に、携帯端末10の使用者が携帯端末10を操作中であるか否かの判断基準として、携帯端末10の設計時に決定される。
ステップS209の後、ステップS203に戻る。
ステップS210では、制御部13は、携帯端末10が使用者によって操作中ではないと判断する(S210)。
ステップS210では、携帯端末10の使用者が、時間T以内に、N回より少ない回数だけ表示部11を見つめている状況である。この様な状況では、携帯端末10が使用者による操作中ではないと判断している。
ステップS210のあと、ステップS201にもどる。
ステップS208、およびステップS210で、制御部13が行った、携帯端末10が使用者によって操作中であるか否かの判断は、携帯端末10のアプリケーションソフトウェア(application software)の動作のための情報などとして利用可能である。
この様にすることで、本実施形態の携帯端末10は、携帯端末10の使用者が携帯端末10を操作中か否かの判断を、視線の動きのみで行うより高精度で行うことが可能となる。
[第4の実施形態]
次に、第4の実施形態について図4と図5を参照して説明する。
[構成の説明]
図4に第4の実施形態の構成を示す。
携帯端末20は、表示部21、撮影部22、角度検知部23、および制御部24を備える。
本実施形態の携帯端末20は、無線携帯端末であるスマートフォンを想定しているが、必ずしも無線携帯端末である必要はなく、無線機能の無い、携帯ビデオ(video)再生装置等であっても良い。
表示部21、撮影部22、および制御部24は、第2および第3の実施形態の表示部11、撮影部12、および制御部13と同様である。
角度検知部23は、ジャイロスコープ(gyroscope)であってもよい。ジャイロスコープは、携帯端末20の鉛直方向に対する絶対的な傾きの角度を検出する手段である。スマートフォンでは、ジャイロスコープを備える機種も多い。
[動作の説明]
次に、本実施形態の携帯端末20の動作について図5を参照して説明する。
図5は、第2の実施形態の動作を説明する図2に対して、ステップS301からステップS305が追加されている。ステップS306からステップS316は、第2の実施形態の動作を説明する図2のステップS101からステップS111と同じである
はじめに、制御部24は、撮影部22を動作して携帯端末20の使用者の顔画像を撮影する。(S301)。
制御部24は、角度検知部23を動作させて、携帯端末20の鉛直方向に対する絶対的な傾きの角度を検知する(S302)。
そして、制御部24は、ステップS301で撮影した使用者の顔画像を解析して、表示部21の表面に対する顔の相対角度を計算する(S303)。
顔の画像から表示部21の表面に対する顔の相対角度を計算することは、顔画像処理技術を用いた顔の向きの検出として行うことが出来る。
ステップS302で検知した、制御部24は、携帯端末20の絶対的な傾き角度と、ステップS303で計算した表示部21に対する顔の相対角度とから、顔の絶対角度を計算する(S304)。
次に、制御部24は、ステップS304で計算した顔の絶対角度から、顔が所定の角度より下向きかどうかを判断する(S305)。
ここで、携帯端末20の使用者の顔が、所定の角度より下向きとは、使用者の顔がうつむいていて、前方を注視していない状態である。また、所定の角度より下向きでない、即ち上向きとは、使用者の顔はうつむかずに前方を向いている状態である。
ステップS305で、顔が所定の角度より下向きであると判断されると(S305でY)、ステップS306にすすむ。
ステップS305で、顔が所定の角度より下向きでないと判断されると(S305でN)、ステップS316にすすむ。
ステップS306からステップS316は、第2の実施形態の動作を説明する図2のステップS101からステップS111と同じであるので、説明を省略する。
この様に、第2の実施形態の動作に加えて、ステップS301からステップS305の動作を加えることで、次の様な効果がある。
第2の実施形態では、眼球表面画像だけで、携帯端末の使用者が表示部を見つめているかどうかを判断していた。しかし、眼球表面画像は顔画像のごく一部分を使用したものであるため、顔全体の画像を使用して顔のうつむき状態を判断することと比べて、画像抽出処理が複雑で低速になる。
一方、本実施形態では、まず、眼球表面画像の抽出処理を省略して、顔のうつむき状態を判断することで、使用者の前方注視の状態を高速で判断する。そして、顔がうつむいている場合に、眼球表面画像を用いて、使用者が携帯端末を見つめているかどうかを判断する。
また、本実施形態の携帯端末20は、使用者が携帯端末を操作中であるとの判断を、顔のうつむき状態と眼球表面画像の両方を用いて行うため、操作中であるとの判断を、第2の実施形態の携帯端末10より高精度に行うことができる。
この様にすることで、本実施形態の携帯端末20は、第2の実施形態の携帯端末10と比べて、より高速でかつ高精度に携帯端末の使用者が操作中であるかどうかを判断することができる。
[第5の実施形態]
次に、第5の実施形態について図4と図6を参照して説明する。
[構成の説明]
本実施形態の構成は、図4に示される第4の実施形態の構成と同じであり、制御部24の動作が、第4の実施形態と異なる。
[動作の説明]
次に、本実施形態の携帯端末20の動作について図6を参照して説明する。
ステップS401からステップS405は、第4の実施形態の動作を説明する図5のステップS301からステップS305と同じである。
また、ステップS406からステップS415は、第3の実施形態の動作を説明する図3のステップS201からステップS210と同じである。
この様に、第3の実施形態の動作に加えて、ステップS401からステップS405の動作を加えている。そのため、第4の実施形態の携帯端末20と同様に、使用者が携帯端末を操作中であるとの判断を、顔のうつむき状態と眼球表面画像の両方を用いて行っている。
この様にすることで、本実施形態の携帯端末20は、第3の実施形態の携帯端末10と比べて、より高速でかつ高精度に携帯端末の使用者が操作中であるかどうかを判断することができる。
[第6の実施形態]
次に、第6の実施形態について図7と図8を参照して説明する。
[構成の説明]
図7に第6の実施形態の構成を示す。
携帯端末30は、表示部31、撮影部32、角度検知部33、移動検知部34、および制御部35を備える。
本実施形態の携帯端末30は、無線携帯端末であるスマートフォンを想定しているが、必ずしも無線携帯端末である必要はなく、無線機能の無い、携帯ビデオ(video)再生装置等であっても良い。
表示部31、撮影部32、角度検知部33、および制御部35は、第4および第5の実施形態の表示部21、撮影部22、角度検知部23および制御部24と同様である。
移動検知部34は、GPS(Global Positioning System)を利用して、携帯端末30の現在地を測定し、現在地が時間とともに変化している場合に、携帯端末30が移動していると検知するなどでもよい。スマートフォンでは、GPS機能を備える機種も多い。
[動作の説明]
次に、本実施形態の携帯端末30の動作について図8を参照して説明する。
図8は、第4の実施形態の動作を説明する図5に対して、ステップS501とステップS502が追加されている。ステップS503からステップS514、およびステップS517は、第4の実施形態の動作を説明する図5のステップS301からステップS312、およびステップS315と同じである。
また、図5のステップS313は削除されて、図8ではステップS515とステップS516に置きかえられている。
更に、図5のステップS316は削除されて、図8ではステップS501にもどる。
はじめに、制御部35は、表示部31であるタッチパネルが、携帯端末30の使用者によって、操作中であるかを判断する(S501)。
ここで、操作中であるかどうかの判断は、タッチパネルに使用者が接触しているかどうかを検知し、一定時間内に接触を検知すれば操作中と判断する様にしても良い。
尚、携帯端末30が、表示部31とは別にボタンによる入力手段を備えていて、ボタンの操作を検知して、操作中かどうかを判断しても良い。
ステップS501で、操作中と判断されると(S501でY)、ステップS502にすすむ。
ステップS501で、操作中でないと判断されると(S501でN)、ステップS501にもどる。
ステップS502では、制御部35は、移動検知部34を動作して、携帯端末30が移動中であるかどうかを判断する(S502)。
ステップS502で、移動中と判断されると(S502でY)、ステップS503にすすむ。
ステップS502で、移動中でないと判断されると(S502でN)、ステップS501にもどる。
ステップS503からステップS514、およびステップS517は、第4の実施形態の動作を説明する図5のステップS301からステップS312、およびステップS315と同じである。
ステップS515では、制御部35は、表示部31のタッチパネルの入力操作の受け付けを停止する(S515)。
ステップS516では、予め定められた一定の時間を経過後に、表示部31のタッチパネルの入力操作の停止を解除する(S516)。
この様にすることで、携帯端末30が移動中で、かつ携帯端末30の使用者が携帯端末30を、前方を注視せずに使用中であると判断されると、表示部31のタッチパネルの入力操作の受け付けが停止される。
その結果、携帯端末30の使用者は、止むを得ず携帯端末30の入力操作をやめて、前方を注視して移動する様になる。そして、携帯端末30の使用者は、危険を回避することができる。
以上説明した様に、本実施形態の携帯端末30は、携帯端末の使用者が携帯端末を操作中か否かの判断を高い精度で行うことで、使用者が歩行などの移動中に入力操作を行なう危険を回避することが出来る。
[第7の実施形態]
次に、第7の実施形態について図7と図9を参照して説明する。
[構成の説明]
本実施形態の構成は、図7に示される第6の実施形態の構成と同じであり、制御部35の動作が、第6の実施形態と異なる。
[動作の説明]
次に、本実施形態の携帯端末30の動作について図9を参照して説明する。
図9は、第5の実施形態の動作を説明する図6に対して、ステップS601とステップS602が追加されている。ステップS603からステップS614、およびステップS617は、第5の実施形態の動作を説明する図5のステップS401からステップS412、およびステップS414と同じである。
また、図6のステップS413は削除されて、図9ではステップS615とステップS616に置きかえられている。
更に、図6のステップS415は削除されて、図9ではステップS601にもどる。
ステップS601とステップS602は、図8に示した第6の実施形態の動作のステップS501とステップS502と同じである。
ステップS603からステップS614、およびステップS617は、第5の実施形態の動作を説明する図5のステップS401からステップS412、およびステップS414と同じである。
また、ステップS615とステップS616は、第6の実施形態の動作を示す図8のステップS515とステップS516と同じである。
この様にすることで、第6の実施形態の携帯端末30と同様に、携帯端末30が移動中で、かつ携帯端末30の使用者が携帯端末30を、前方を注視せずに使用中であると判断されると、表示部31のタッチパネルの入力操作の受け付けが停止される。
その結果、携帯端末30の使用者は、止むを得ず携帯端末30の入力操作をやめて、前方を注視して移動する様になる。そして、携帯端末30の使用者は、危険を回避することができる。
以上説明した様に、本実施形態の携帯端末30は、携帯端末の使用者が携帯端末を操作中か否かの判断を高い精度で行うことで、使用者が歩行などの移動中に入力操作を行なう危険を回避することが出来る。
尚、本発明は、実施形態の機能を実現する情報処理プログラムが、システム或いは装置に直接或いは遠隔から供給される場合にも適用可能である。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
表示部を備える携帯端末であって、
前記表示部と相対的に固定され前記携帯端末の使用者の眼球表面の画像を撮影する撮影部と、
第1の所定の時間以内に、前記眼球表面の画像が、前記表示部に表示されている画像と一致する時間が第1の所定の時間より短い第2の所定時間以上であると、前記使用者が前記携帯端末を操作中であると判断する制御部とを備えることを特徴とする携帯端末。
(付記2)
表示部を備える携帯端末であって、
前記表示部と相対的に固定され前記携帯端末の使用者の眼球表面の画像を撮影する撮影部と、
前記表示部の鉛直方向に対する第1の絶対角度を検知する角度検知部を備え、
所定の時間以内に、前記眼球表面の画像が、前記表示部に表示されている画像と一致する回数が所定の回数に達すると、前記使用者が前記携帯端末を操作中であると判断する制御部とを備えることを特徴とする携帯端末。
(付記3)
表示部を備える携帯端末であって、
前記表示部と相対的に固定され前記携帯端末の使用者の顔と眼球表面の画像とを撮影する撮影部と、
前記表示部の鉛直方向に対する絶対角度を検知する角度検知部を備え、
前記顔の画像と前記絶対角度とから前記顔が所定の角度より下に向いていると判断されて、更に、第1の所定の時間以内に、前記眼球表面の画像が、前記表示部に表示されている画像と一致する時間が第1の所定の時間より短い第2の所定時間以上であると、前記使用者が前記携帯端末を操作中であると判断する制御部とを備えることを特徴とする携帯端末。
(付記4)
表示部を備える携帯端末であって、
前記表示部と相対的に固定され前記携帯端末の使用者の顔と眼球表面の画像とを撮影する撮影部と、
前記携帯端末の位置の移動を検知する移動検知部と、
前記表示部の鉛直方向に対する絶対角度を検知する角度検知部を備え、
前記携帯端末が移動中と検知され、かつ前記顔の画像と前記絶対角度とから前記顔が所定の角度より下に向いていると判断されて、更に、所定の時間以内に、前記眼球表面の画像が、前記表示部に表示されている画像と一致する回数が所定の回数に達すると、前記使用者が前記携帯端末を操作中であると判断する制御部とを備えることを特徴とする携帯端末。
(付記5)
前記携帯端末は更に、前記携帯端末の位置の移動を検知する移動検知部を備え、
前記制御部は前記使用者が前記携帯端末を操作中であると判断すると、前記使用者による前記携帯端末の操作の受け付けを停止とすることを特徴とする付記1乃至付記4のいずれかに記載の携帯端末。
(付記6)
前記制御部はさらに、前記使用者による前記携帯端末の操作の受け付けを停止とした後に、所定の時間を経過すると、前記携帯端末の操作の受け付けを可能に復帰することを特徴とする付記5に記載の携帯端末。
(付記7)
第1の所定の時間以内に、携帯端末の使用者の眼球表面の画像が、前記携帯端末の表示部に表示されている画像と一致する時間が第1の所定の時間より短い第2の所定時間以上であると、前記使用者が前記携帯端末を操作中であると判断することを特徴とする携帯端末の制御方法。
(付記8)
所定の時間以内に、携帯端末の使用者の眼球表面の画像が、前記携帯端末の表示部に表示されている画像と一致する回数が所定の回数に達すると、前記使用者が前記携帯端末を操作中であると判断することを特徴とする携帯端末の制御方法。
(付記9)
携帯端末の使用者の顔の画像と前記携帯端末の表示部の鉛直方向に対する絶対角度とから前記顔が所定の角度より下に向いていると判断されて、更に、第1の所定の時間以内に、前記携帯端末の使用者の眼球表面の画像が、前記表示部に表示されている画像と一致する時間が第1の所定の時間より短い第2の所定時間以上であると、前記使用者が前記携帯端末を操作中であると判断することを特徴とする携帯端末の制御方法。
(付記10)
携帯端末の使用者の顔の画像と前記携帯端末の表示部の鉛直方向に対する絶対角度とから前記顔が所定の角度より下に向いていると判断されて、更に、所定の時間以内に、前記携帯端末の使用者の眼球表面の画像が、前記表示部に表示されている画像と一致する回数が所定の回数に達すると、前記使用者が前記携帯端末を操作中であると判断することを特徴とする携帯端末の制御方法。
(付記11)
前記携帯端末が移動中と検知されて、前記使用者が前記携帯端末を操作中であると判断されると、前記使用者による前記携帯端末の操作の受け付けを停止とすることを特徴とする付記7乃至付記10のいずれかに記載の携帯端末の制御方法。
(付記12)
前記使用者による前記携帯端末の操作の受け付けを停止とした後に、所定の時間を経過すると、前記携帯端末の操作の受け付けを可能に復帰することを特徴とする付記11に記載の携帯端末の制御方法。
(付記13)
第1の所定の時間以内に、携帯端末の使用者の眼球表面の画像が、前記携帯端末の表示部に表示されている画像と一致する時間が第1の所定の時間より短い第2の所定時間以上であると、前記使用者が前記携帯端末を操作中であると判断することをコンピュータに実行させる携帯端末のプログラム。
(付記14)
所定の時間以内に、携帯端末の使用者の眼球表面の画像が、前記携帯端末の表示部に表示されている画像と一致する回数が所定の回数に達すると、前記使用者が前記携帯端末を操作中であると判断することをコンピュータに実行させる携帯端末のプログラム。
(付記15)
携帯端末の使用者の顔の画像と前記携帯端末の表示部の鉛直方向に対する絶対角度とから前記顔が所定の角度より下に向いていると判断されて、更に、第1の所定の時間以内に、前記携帯端末の使用者の眼球表面の画像が、前記表示部に表示されている画像と一致する時間が第1の所定の時間より短い第2の所定時間以上であると、前記使用者が前記携帯端末を操作中であると判断することをコンピュータに実行させる携帯端末のプログラム。
(付記16)
携帯端末の使用者の顔の画像と前記携帯端末の表示部の鉛直方向に対する絶対角度とから前記顔が所定の角度より下に向いていると判断されて、更に、所定の時間以内に、前記携帯端末の使用者の眼球表面の画像が、前記表示部に表示されている画像と一致する回数が所定の回数以上であると、前記使用者が前記携帯端末を操作中であると判断することをコンピュータに実行させる携帯端末のプログラム。
(付記17)
前記携帯端末が移動中と検知されて、前記使用者が前記携帯端末を操作中であると判断されると、前記使用者による前記携帯端末の操作の受け付けを停止とすることをコンピュータに実行させる付記13乃至付記16のいずれかに記載の携帯端末のプログラム。
(付記18)
前記使用者による前記携帯端末の操作の受け付けを停止とした後に、所定の時間を経過すると、前記携帯端末の操作の受け付けを可能に復帰することをコンピュータに実行させる付記17に記載の携帯端末のプログラム。
10 携帯端末
11 表示部
12 撮影部
13 制御部
20 携帯端末
21 表示部
22 撮影部
23 角度検知部
24 制御部
30 携帯端末
31 表示部
32 撮影部
33 角度検知部
34 移動検知部
35 制御部

Claims (10)

  1. 表示部を備える携帯端末であって、
    前記表示部と相対的に固定され前記携帯端末の使用者の眼球表面の画像を撮影する撮影部と、
    第1の所定の時間以内に、前記眼球表面の画像が、前記表示部に表示されている画像と一致する時間が第1の所定の時間より短い第2の所定時間以上であると、前記使用者が前記携帯端末を操作中であると判断する制御部とを備えることを特徴とする携帯端末。
  2. 表示部を備える携帯端末であって、
    前記表示部と相対的に固定され前記携帯端末の使用者の眼球表面の画像を撮影する撮影部と、
    前記表示部の鉛直方向に対する第1の絶対角度を検知する角度検知部を備え、
    所定の時間以内に、前記眼球表面の画像が、前記表示部に表示されている画像と一致する回数が所定の回数に達すると、前記使用者が前記携帯端末を操作中であると判断する制御部とを備えることを特徴とする携帯端末。
  3. 表示部を備える携帯端末であって、
    前記表示部と相対的に固定され前記携帯端末の使用者の顔と眼球表面の画像とを撮影する撮影部と、
    前記表示部の鉛直方向に対する絶対角度を検知する角度検知部を備え、
    前記顔の画像と前記絶対角度とから前記顔が所定の角度より下に向いていると判断されて、更に、第1の所定の時間以内に、前記眼球表面の画像が、前記表示部に表示されている画像と一致する時間が第1の所定の時間より短い第2の所定時間以上であると、前記使用者が前記携帯端末を操作中であると判断する制御部とを備えることを特徴とする携帯端末。
  4. 表示部を備える携帯端末であって、
    前記表示部と相対的に固定され前記携帯端末の使用者の顔と眼球表面の画像とを撮影する撮影部と、
    前記携帯端末の位置の移動を検知する移動検知部と、
    前記表示部の鉛直方向に対する絶対角度を検知する角度検知部を備え、
    前記携帯端末が移動中と検知され、かつ前記顔の画像と前記絶対角度とから前記顔が所定の角度より下に向いていると判断されて、更に、所定の時間以内に、前記眼球表面の画像が、前記表示部に表示されている画像と一致する回数が所定の回数に達すると、前記使用者が前記携帯端末を操作中であると判断する制御部とを備えることを特徴とする携帯端末。
  5. 前記携帯端末は更に、前記携帯端末の位置の移動を検知する移動検知部を備え、
    前記制御部は前記使用者が前記携帯端末を操作中であると判断すると、前記使用者による前記携帯端末の操作の受け付けを停止とすることを特徴とする請求項1乃至請求項4のいずれかに記載の携帯端末。
  6. 前記制御部はさらに、前記使用者による前記携帯端末の操作の受け付けを停止とした後に、所定の時間を経過すると、前記携帯端末の操作の受け付けを可能に復帰することを特徴とする請求項5に記載の携帯端末。
  7. 第1の所定の時間以内に、携帯端末の使用者の眼球表面の画像が、前記携帯端末の表示部に表示されている画像と一致する時間が第1の所定の時間より短い第2の所定時間以上であると、前記使用者が前記携帯端末を操作中であると判断することを特徴とする携帯端末の制御方法。
  8. 所定の時間以内に、携帯端末の使用者の眼球表面の画像が、前記携帯端末の表示部に表示されている画像と一致する回数が所定の回数に達すると、前記使用者が前記携帯端末を操作中であると判断することを特徴とする携帯端末の制御方法。
  9. 携帯端末の使用者の顔の画像と前記携帯端末の表示部の鉛直方向に対する絶対角度とから前記顔が所定の角度より下に向いていると判断されて、更に、第1の所定の時間以内に、前記携帯端末の使用者の眼球表面の画像が、前記表示部に表示されている画像と一致する時間が第1の所定の時間より短い第2の所定時間以上であると、前記使用者が前記携帯端末を操作中であると判断することを特徴とする携帯端末の制御方法。
  10. 第1の所定の時間以内に、携帯端末の使用者の眼球表面の画像が、前記携帯端末の表示部に表示されている画像と一致する時間が第1の所定の時間より短い第2の所定時間以上であると、前記使用者が前記携帯端末を操作中であると判断することをコンピュータに実行させる携帯端末のプログラム。
JP2018020711A 2018-02-08 2018-02-08 携帯端末、携帯端末の制御方法、および携帯端末のプログラム Active JP7048339B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018020711A JP7048339B2 (ja) 2018-02-08 2018-02-08 携帯端末、携帯端末の制御方法、および携帯端末のプログラム
PCT/JP2019/004040 WO2019156063A1 (ja) 2018-02-08 2019-02-05 携帯端末、携帯端末の制御方法、および携帯端末のプログラム
US16/964,865 US20210064130A1 (en) 2018-02-08 2019-02-05 Mobile terminal, control method for mobile terminal, and storage medium storing program for mobile terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018020711A JP7048339B2 (ja) 2018-02-08 2018-02-08 携帯端末、携帯端末の制御方法、および携帯端末のプログラム

Publications (2)

Publication Number Publication Date
JP2019139411A true JP2019139411A (ja) 2019-08-22
JP7048339B2 JP7048339B2 (ja) 2022-04-05

Family

ID=67549374

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018020711A Active JP7048339B2 (ja) 2018-02-08 2018-02-08 携帯端末、携帯端末の制御方法、および携帯端末のプログラム

Country Status (3)

Country Link
US (1) US20210064130A1 (ja)
JP (1) JP7048339B2 (ja)
WO (1) WO2019156063A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014232411A (ja) * 2013-05-29 2014-12-11 富士通テン株式会社 携帯端末、及び、危険報知システム
US20160166140A1 (en) * 2014-12-10 2016-06-16 Telefonaktiebolaget L M Ericsson (Publ) Device for and method of corneal imaging
JP2016119631A (ja) * 2014-12-22 2016-06-30 富士通株式会社 電子機器

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014232411A (ja) * 2013-05-29 2014-12-11 富士通テン株式会社 携帯端末、及び、危険報知システム
US20160166140A1 (en) * 2014-12-10 2016-06-16 Telefonaktiebolaget L M Ericsson (Publ) Device for and method of corneal imaging
JP2016119631A (ja) * 2014-12-22 2016-06-30 富士通株式会社 電子機器

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
北角 一哲, 中澤篤志, 西田豊明: "角膜表面反射の画像特徴を用いた視線停留点検出", 情報処理学会 研究報告 コンピュータビジョンとイメージメディア(CVIM), vol. 第2016CVIM-202巻, 第21号, JPN6021047322, 5 May 2016 (2016-05-05), JP, pages 1 - 8, ISSN: 0004649011 *

Also Published As

Publication number Publication date
US20210064130A1 (en) 2021-03-04
WO2019156063A1 (ja) 2019-08-15
JP7048339B2 (ja) 2022-04-05

Similar Documents

Publication Publication Date Title
KR102171616B1 (ko) 단말기 오접촉 방지 방법 및 장치
EP3179711B1 (en) Method and apparatus for preventing photograph from being shielded
EP3163404B1 (en) Method and device for preventing accidental touch of terminal with touch screen
US9007321B2 (en) Method and apparatus for enlarging a display area
EP3173974A1 (en) Method and device for fingerprint recognition
JP6587628B2 (ja) 命令生成方法及び装置
EP3176727A1 (en) Image classification method and device
EP2977926A1 (en) Method and device for verification using verification code
EP3038345B1 (en) Auto-focusing method and auto-focusing device
US20150143283A1 (en) Information processing device, display control method, and program
EP2950180B1 (en) Method for determining screen display mode and terminal device
WO2017088266A1 (zh) 图片处理方法及装置
JP2009031368A (ja) 画面表示制御方法、画面表示制御方式、電子機器及びプログラム
EP3232301B1 (en) Mobile terminal and virtual key processing method
JP7203955B2 (ja) 顔認識方法および装置
WO2014105012A1 (en) System and method for gesture based touchscreen control of displays
KR20110006243A (ko) 휴대용 단말기에서 매뉴얼 포커싱 방법 및 장치
KR102024330B1 (ko) 전자 장치, 사진 촬영 방법, 및 사진 촬영 장치
JP7048339B2 (ja) 携帯端末、携帯端末の制御方法、および携帯端末のプログラム
US20160195992A1 (en) Mobile terminal and method for processing signals generated from touching virtual keys
JP5796052B2 (ja) 画面表示制御方法、画面表示制御方式、電子機器及びプログラム
EP2924568A1 (en) Execution method and device for program string
CN107329604B (zh) 一种移动终端控制方法及装置
CN111756985A (zh) 图像拍摄方法、装置和存储介质
CN109670432B (zh) 动作识别方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210115

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20211110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220324

R150 Certificate of patent or registration of utility model

Ref document number: 7048339

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150