JP2018045373A - 情報処理プログラム、情報処理端末及び情報処理方法 - Google Patents

情報処理プログラム、情報処理端末及び情報処理方法 Download PDF

Info

Publication number
JP2018045373A
JP2018045373A JP2016178622A JP2016178622A JP2018045373A JP 2018045373 A JP2018045373 A JP 2018045373A JP 2016178622 A JP2016178622 A JP 2016178622A JP 2016178622 A JP2016178622 A JP 2016178622A JP 2018045373 A JP2018045373 A JP 2018045373A
Authority
JP
Japan
Prior art keywords
information processing
user
display
unit
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016178622A
Other languages
English (en)
Inventor
芳英 藤田
Yoshihide Fujita
芳英 藤田
哲典 田口
Tetsunori Taguchi
哲典 田口
三原 基伸
Motonobu Mihara
基伸 三原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016178622A priority Critical patent/JP2018045373A/ja
Priority to US15/689,423 priority patent/US20180074327A1/en
Publication of JP2018045373A publication Critical patent/JP2018045373A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • G02B2027/0154Head-up displays characterised by mechanical features with movable elements
    • G02B2027/0156Head-up displays characterised by mechanical features with movable elements with optionally usable elements

Abstract

【課題】ユーザが表示内容を確認したことを精度よく判定する。【解決手段】情報処理プログラムは、情報処理端末の画面に表示情報が表示されている際に、前記情報処理端末に搭載される第1の撮像装置を用いて前記画面に向けられている前記ユーザの視線方向を検知するとともに、前記情報処理端末に搭載される第2の撮像装置を用いて画像を撮影し、前記視線方向及び前記画像に基づいて、前記表示情報に関連する警告の出力制御を行う、処理を情報処理端末に実行させる。【選択図】図3

Description

本発明は、装着型の情報処理端末に関する。
ヘッドマウントディスプレイ(以下、HMDと称す)などの装着型の情報処理端末を使用して日常の点検業務をサポートする技術の開発が進められている。例えば、作業者は、設備や施設などの点検作業において、HMDの表示画面に表示される注意点や点検項目などを確認し、その後に点検作業を行う。これにより、作業者は、作業におけるミスを減らすことができる。
表示部がユーザにより観察可能な状況でない場合に、音により報知を行うことで、ユーザに表示部に表示されている情報を確認するように促すことができる情報入出力装置が知られている(例えば、特許文献1を参照)。
特開2014−145734号公報
HMDを装着したまま点検作業をすると、ユーザの視界は、表示画面で塞がれてしまう。そのため、ユーザは、表示画面を視界から外した位置に動かしてから作業をすることがある。しかし、表示画面を目視できない状態にして作業をした場合、表示画面を1度目視した後であっても、表示内容を確認するように促す警告がユーザに対して行われることがある。
本発明は1つの側面において、ユーザが表示内容を確認したことを精度よく判定することを目的とする。
情報処理プログラムは、情報処理端末の画面に表示情報が表示されている際に、前記情報処理端末に搭載される第1の撮像装置を用いて前記画面に向けられている前記ユーザの視線方向を検知するとともに、前記情報処理端末に搭載される第2の撮像装置を用いて画像を撮影し、前記視線方向及び前記画像に基づいて、前記表示情報に関連する警告の出力制御を行う、処理を情報処理端末に実行させる。
本発明によれば、ユーザが表示内容を確認したことを精度よく判定することができる。
本実施形態に係る情報処理端末の構成の例を説明する図である。 情報処理端末を装着した際の表示装置の位置の例を説明する図である。 本実施形態に係る情報処理端末が実行する処理の例を説明するブロック図である。 本実施形態に係る情報処理端末のハードウェア構成の例を説明する図である。 情報処理端末の警告要否判定処理に係る処理の例を説明するフローチャートである。 状態検出部の処理の例を説明するフローチャートである。 目視判定処理に係る処理の例を説明するフローチャートである。 表示装置の移動判定処理に係る処理の例を説明するフローチャートである。 別の実施形態に係る情報処理端末が実行する処理の例を説明するブロック図である。 別の実施形態に係る目視判定処理に係る処理の例を説明するフローチャートである。 別の実施形態に係る表示装置の移動判定処理に係る処理の例を説明するフローチャートである。
本実施形態に係る発明は、表示画面を目視できる状態からユーザが頭上に表示画面を移動させた場合に、第一のカメラと第二のカメラに写る画像の変化に着目している。
表示画面を目視できる状態からユーザが頭上に表示画面を移動させた場合に、第二のカメラで撮影される外界画像(ユーザの前方の画像)は下方向に移動する。そこで、本実施形態に係るHMDは、外界画像が下方向に所定量以上移動した場合に、表示画面がユーザにより移動させられたと判定する。
表示画面に表示情報が表示されているときに、第一のカメラは、表示画面に向けられたユーザの目を撮影する。HMDは、撮影されたユーザの目の画像を用いて、ユーザが所定時間以上表示画面を目視した(確認した)か否かを判定する。ユーザが所定時間以上表示画面を目視している場合、HMDは、警告をユーザに出力しない。一方、ユーザが所定時間以上表示画面を目視していない場合、HMDは、警告をユーザに出力する。
そのため、本実施形態に係るHMDは、ユーザが表示画面を目視した後に、意図的に表示画面を移動させたか否かを判定して、ユーザに対して余計な警告を出さない。
図1は、本実施形態に係る情報処理端末の構成の例を説明する図である。図2は、情報処理端末を装着した際の表示装置の位置の例を説明する図である。図1の情報処理端末100は、表示装置110とユーザの頭部に装着され表示装置110を支持するヘッドバンド120と、を備えた単眼式のヘッドマウントディスプレイである。情報処理端末100は、ユーザの頭部に装着し、ユーザの点検作業の補助に用いられる。表示装置110は、ユーザの右目、左目のどちらか一方で使用可能であればよい。
表示装置110aは、矢印A方向から見た表示装置110の例である。表示装置110aは、ユーザの目の前に表示情報を表示するディスプレイ220と、ディスプレイ220に向けられたユーザの目を撮影する第一のカメラ210を備える。表示装置110bは、矢印B方向から見た表示装置110の例である。表示装置110bは、ユーザの前方を撮影する第二のカメラ230を備える。
表示装置110は、図2のようにユーザの目の前と頭上に移動可能である。表示装置110がユーザの目の前にある状態150aにある場合、第一のカメラ210は、ユーザの目を撮影可能である。又、表示装置110がユーザの目の前にある状態150aにある場合、第二のカメラ230は、ユーザの前方方向を撮影可能である。以下において、第二のカメラ230が撮影する方向を、外側や外界と称す。
頭上に表示装置110がある状態150bで、第一のカメラ210は、ユーザの方向を撮影するものの、ユーザの目を撮影できない。又、頭上に表示装置110がある状態150bで、第二のカメラ230は、ユーザの前方の上方を撮影する。
図3は、本実施形態に係る情報処理端末が実行する処理の例を説明するブロック図である。情報処理端末100は、目領域撮影部301、視線方向検知部302、目視判定部303、目視時間算出部304、外界撮影部305、状態検出部306、移動判定部307、警告判定部308、警告部309、表示部310、記憶部311を備える。記憶部311は、目領域撮影部301や外界撮影部305で撮影された画像を保存可能なメモリである。
表示部310は、点検作業において、作業の進行に係る情報や作業内容を示す情報などの表示情報を表示する。目領域撮影部301は、第一のカメラ210である。表示部310に表示情報が表示されているときに、目領域撮影部301は、所定の時間間隔でユーザの方向を撮影する。目領域撮影部301は、表示装置110がユーザの目の前にある状態150aにおいて、ユーザの目を撮影可能である。目領域撮影部301は、頭上に表示装置110がある状態150bにおいては、ユーザの目を撮影できない。
視線方向検知部302は、目領域撮影部301が撮影したユーザの目の画像に基づいて、視線方向を検知する。目領域撮影部301が、頭上に表示装置110がある状態150bで画像を撮影した場合は、視線方向検知部302は、視線方向を検知できない。
目視判定部303は、視線方向検知部302で検知した視線方向が表示部310に向いているか否かを判定する。目視時間算出部304は、目視判定部303で所定時間内にユーザの視線方向が表示部310に向いていると判定された時間を加算(積算していく)する。
外界撮影部305は、第二のカメラ230である。表示部310に表示情報が表示されているときに、外界撮影部305は、所定の時間間隔で外界の撮影をする。外界撮影部305は、表示装置110がユーザの目の前にある状態150aにおいて、ユーザの前方方向を撮影可能である。外界撮影部305は、頭上に表示装置110がある状態150bにおいては、ユーザの前方上方を撮影する。
状態検出部306は、外界撮影部305が撮影した画像に道具や手が写っているかなどの情報に基づいて、ユーザが作業中であるか否かを判定する。又、状態検出部306は、外界画像が動いているか否かによって歩行中であるか否かを判定する。
移動判定部307は、表示装置110がユーザの目の前にある状態150aから頭上に表示装置110がある状態150bに、表示装置110が移動されたか否かを判定する。具体的には、移動判定部307は、過去の所定フレーム数の外界画像から特徴点を抽出する。特徴点を抽出する対象となる外界画像のフレーム数は、適宜、変更可能である。その後、移動判定部307は、抽出した特徴点から過去の所定フレーム数での表示装置110の移動量をベクトル値で算出する。移動判定部307は、移動量のベクトル値が所定値以上である場合に、表示装置110がユーザの目の前にある状態150aから頭上に表示装置110がある状態150bに、表示装置110が移動したと判定する。一方、移動判定部307は、移動量のベクトル値が所定値に達していない場合、表示装置110がユーザの目の前にある状態150aから移動していないと判定する。
警告判定部308は、移動判定部307で表示装置110がユーザの目の前にある状態150aから移動していないと判定された場合、警告を出力しないと判定する。警告判定部308は、移動判定部307で表示装置110がユーザの目の前にある状態150aから移動していると判定された場合で、且つ、目視時間算出部304で算出された目視時間が所定の時間以上である場合、警告を出力しないと判定する。言い換えると、警告判定部308は、目視時間算出部304で算出された目視時間が所定の時間以上である場合には、既に、ユーザが表示装置110の表示情報を確認したと判定する。警告判定部308は、移動判定部307で表示装置110がユーザの目の前にある状態150aから移動していると判定された場合で、且つ、目視時間算出部304で算出された目視時間が所定の時間よりも小さい場合、警告を出力すると判定する。言い換えると、警告判定部308は、目視時間算出部304で算出された目視時間が所定の時間よりも小さい場合には、ユーザが表示装置110の表示情報を確認していないと判定する。警告部309は、警告判定部308が警告を出力すると判定した場合に、警告を出力する。
このように、本実施形態に係る情報処理端末100は、表示部310に表示情報が表示されているときに、外界撮影部305は、ユーザの前方の画像を撮影する。移動判定部307は、外界撮影部305で撮影された画像に基づいて、表示装置110がユーザの目の前にある状態150aにあることを判定する。併せて、表示部310に表示情報が表示されているときに、目領域撮影部301は、ユーザの目を撮影する。表示装置110がユーザの目の前にある状態150aにある場合、警告判定部308は、ユーザが所定時間以上表示部310を目視したか否かを判定し、警告を出力するか否かを判定する。
そのため、本実施形態に係る情報処理端末100は、ユーザが表示部310を目視した後に、意図的に表示装置110を移動させたか否かを判定して、ユーザに対して余計な警告を出さない。
図4は、本実施形態に係る情報処理端末のハードウェア構成の例を説明する図である。情報処理端末100は、プロセッサ11、メモリ12、入出力装置13、通信装置14、バス15、第一のカメラ16、第二のカメラ17、警告装置18を備える。
プロセッサ11は、Central Processing Unit(CPU)などの任意の処理回路である。プロセッサ11は、複数のCPUでもよい。プロセッサ11は、情報処理端末100における視線方向検知部302、目視判定部303、目視時間算出部304、状態検出部306、移動判定部307、警告判定部308として動作する。なお、プロセッサ11は、メモリ12に記憶されたプログラムを実行することができる。メモリ12は、記憶部311として動作する。メモリ12は、プロセッサ11の動作により得られたデータや、プロセッサ11の処理に用いられるデータも、適宜、記憶する。通信装置14は、他の装置との通信に使用される。
入出力装置13は、例えば、ボタン、キーボード、マウス等の入力装置として実現され、ディスプレイなどの出力装置として実現される。入出力装置13の出力装置は、表示部310として動作する。警告装置18は、音や振動などで警告を出力し、警告部309として動作する。第一のカメラ16は、ユーザ方向を撮影する撮像装置であり、第一のカメラ210、目領域撮影部301として動作する。第二のカメラ17は、ユーザの目の前に表示装置110がある状態150aでは、ユーザの前方を撮影する。第二のカメラ17は、ユーザの頭上に表示装置110がある状態150bでは、ユーザの前方情報を撮影する。第二のカメラ17は、第二のカメラ230と外界撮影部305として動作する。バス15は、プロセッサ11、メモリ12、入出力装置13、通信装置14、第一のカメラ16、第二のカメラ17、警告装置18の間を相互にデータの受け渡しが行えるように接続する。
図5は、情報処理端末の警告要否判定処理に係る処理の例を説明するフローチャートである。目領域撮影部301は、ユーザの目の画像を撮影する(ステップS101)。視線方向検知部302は、目領域撮影部301が撮影したユーザの目の画像に基づいて、視線方向を検知する(ステップS102)。外界撮影部305は、外界(ユーザの前方、又は、ユーザの前方上方)の画像を撮影する(ステップS103)。状態検出部306は、ユーザが作業中であるか否かを判定する(ステップS104)。
目視時間算出部304は、目視判定部303でユーザの視線方向が表示部310に向いていると判定された時間を加算する(ステップS105)。移動判定部307は、表示装置110が目の前(図2の状態150a)から移動したか否かを判定する(ステップS106)。
表示装置110が目の前にある状態150aから移動している場合(ステップS106でYES)、警告判定部308は、目視時間が所定の時間以上であるか否かを判定する(ステップS107)。目視時間が所定の時間よりも少ない場合(ステップS107でNO)、警告部309は、警告を出力する(ステップS108)。ステップS108の処理が終了した場合、もしくは時間が所定の時間以上の場合(ステップS107でYES)、表示装置110が目の前にある状態150aから移動していない場合(ステップS106でNO)、情報処理端末100の警告要否判定処理に係る処理を終了する。
なお、本実施形態に係る図5の警告要否判定処理は、表示部310に表示内容が表示されている間、所定の間隔で処理を行うものとする。
図6は、状態検出部の処理の例を説明するフローチャートである。図6のフローチャートの処理は、図5のステップS104の処理を詳しく説明したものである。状態検出部306は、外界撮影部305が撮影した画像に道具や手が写っているか否かを判定する(ステップS201)。外界撮影部305が撮影した画像に道具や手が写っている場合(ステップS201でYES)、状態検出部306は、外界撮影部305が撮影した画像から、道具や手が動いているか否かを判定する(ステップS202)。ここで、状態検出部306は、外界撮影部305で撮影された過去の所定フレーム数の画像を用いて、道具や手が動いているかを判定する。道具や手が動いている場合(ステップS202でYES)、状態検出部306は、ユーザが作業中であると判定する(ステップS203)。
外界撮影部305が撮影した画像に道具や手が写っていない場合(ステップS201でNO)、状態検出部306は、外界撮影部305で撮影された過去の所定フレーム数の画像を用いて、静止しているか否かを判定する(ステップS204)。静止している場合(ステップS204でYES)、状態検出部306は、ユーザが作業中でないと判定する(ステップS205)。同様に、道具や手が動いていない場合(ステップS202でNO)、状態検出部306は、ユーザが作業中でないと判定する(ステップS205)。外界撮影部305で撮影された過去の所定フレーム数の画像において画像が静止していない場合(ステップS204でNO)、状態検出部306は、ユーザが作業中であると判定する(ステップS203)。
ユーザが作業中(ステップS203)、又は、ユーザが作業中ではない(ステップS204)、などのユーザの状態が判定されると、状態検出部306の処理(図5のステップS104)は、終了する。
図7は、目視判定処理に係る処理の例を説明するフローチャートである。図7のフローチャートの処理は、図5のステップS105の処理を詳しく説明したものである。
目視判定部303は、視線方向が表示部310に向いているか否かを判定する(ステップS301)。視線方向が表示部310に向いている場合(ステップS301でYES)、目視時間算出部304は、目視していた時間を積算する(ステップS302)。視線方向が表示部310に向いていない場合(ステップS301でNO)、又は、ステップS302が終了すると、図7に係る目視判定処理は終了する。
図8は、表示装置の移動判定処理に係る処理の例を説明するフローチャートである。図8のフローチャートの処理は、図5のステップS106の処理を詳しく説明したものである。移動判定部307は、過去の所定フレーム数の外界画像から特徴点を抽出する(ステップS401)。移動判定部307は、抽出した特徴点から過去の所定フレーム数での表示装置110の移動量のベクトル値を算出する(ステップS402)。移動判定部307は、移動量のベクトル値が所定値以上か否かを判定する(ステップS403)。
移動量のベクトル値が所定値以上である場合(ステップS403でYES)、移動判定部307は、表示装置110が状態150a(目の前)から移動したと判定する(ステップS404)。移動量のベクトル値が所定値よりも少ない場合(ステップS403でNO)、移動判定部307は、表示装置110が状態150aから移動していないと判定する(ステップS405)。ステップS404又はステップS405の処理が終了すると、移動判定部307は、表示装置110の移動判定処理を終了する。
このように、本実施形態に係る情報処理端末100は、表示部310に表示情報が表示されているときに、外界撮影部305は、ユーザの前方の画像を撮影する。移動判定部307は、外界撮影部305で撮影された画像に基づいて、表示装置110がユーザの目の前にある状態150aにあることを判定する。併せて、表示部310に表示情報が表示されているときに、目領域撮影部301は、ユーザの目を撮影する。表示装置110がユーザの目の前にある状態150aにある場合、警告判定部308は、ユーザが所定時間以上表示部310を目視したか否かを判定し、警告を出力するか否かを判定する。
そのため、本実施形態に係る情報処理端末100は、ユーザが表示部310を目視した後に、意図的に表示装置110を移動させたか否かを判定して、ユーザに対して余計な警告を出さない。
<他の実施形態>
図9は、別の実施形態に係る情報処理端末が実行する処理の例を説明するブロック図である。図9において、図3と同じものには、同じ番号を付す。図9は、図3のブロック図から更に、状態検出部306から目視判定部303への矢印と、視線方向検知部302から移動判定部307への矢印が加えられた図である。
別の実施形態に係る目視判定部303は、外界画像に基づいてユーザが作業中であるか否かの状態情報を状態検出部306から取得する。目視時間算出部304は、ユーザの視線方向が表示部310に向いている場合であっても、状態検出部306がユーザは作業中でないと判定した場合に、目視時間を積算しない。これにより、作業中以外の時間において単に視線が表示部310に向いているだけの時間を、目視時間から除外することができ、ユーザが表示内容を確認したことを精度よく判定できる。
別の実施形態に係る移動判定部307は、外界画像による表示装置110の移動判定から、更に、目領域撮影部301で撮影された画像を用いて、表示装置110が目の前にある状態150aから移動したか否かを判定する。移動判定部307は、目領撮影部301で撮影された画像に、目が写っているか否かを判定する。目が画像に写っている場合に、移動判定部307は、表示装置110が目の前にある状態150aから移動していないと判定する。一方、目が画像に写っていない場合に、移動判定部307は、表示装置110が目の前にある状態150aから移動したと判定する。これにより、表示装置110が目の前にあるか頭上にあるかの位置判定をより正確に行うことができる。
図10は、別の実施形態に係る目視判定処理に係る処理の例を説明するフローチャートである。別の実施形態における情報処理端末100は、図10のフローチャートに係る処理を、図5のステップS105の処理で実行する。
目視判定部303は、視線方向が表示部310に向いているか否かを判定する(ステップS501)。視線方向が表示部310に向いている場合(ステップS501でYES)、目視判定部303は、状態検出部306から取得したユーザが作業中であるか否かを示す情報が、作業中を示す情報であるか否かを判定する(ステップS502)。ユーザが作業中であることを示す情報を状態検出部306から取得した場合(ステップS502でYES)、目視時間算出部304は、目視していた時間を積算する(ステップS503)。
視線方向が表示部310に向いていない場合(ステップS501でNO)、及び、ユーザが作業中でないことを示す情報を取得している場合(ステップS502でNO)、目視時間算出部304は、目視判定処理に係る処理を終了する。
図11は、別の実施形態に係る表示装置の移動判定処理に係る処理の例を説明するフローチャートである。別の実施形態における情報処理端末100は、図11のフローチャートに係る処理を、図5のステップS106の処理で実行する。
移動判定部307は、目領域撮影部301で撮影された過去の所定フレーム数の画像に目が写っているか否かを判定する(ステップS601)。目領域撮影部301で撮影された過去の所定フレーム数の画像に目が写っている場合(ステップS601でYES)、移動判定部307は、表示装置110が目の前にある状態150aから移動していないと判定する(ステップS602)。目領域撮影部301で撮影された過去の所定フレーム数の画像に目が写っていない場合(ステップS601でNO)、移動判定部307は、表示装置110が目の前にある状態150aから移動したと判定する(ステップS603)。
なお、移動判定部307は、外界撮影部305で撮影された画像と、目領域撮影部301のどちらか一方により、表示装置110が目の前にある状態150aから移動したかを判定してもよい。又、移動判定部307は、外界撮影部305で撮影された画像と、目領域撮影部301の両方を表示装置110が目の前にある状態150aから移動したかの判定に用いてもよい。
なお、警告判定部308は、ユーザが表示部310を確認していないと判定した場合であっても、以前に同一の表示内容をユーザが確認していた場合には、警告を出力しないと判定してもよい。
又、警告判定部308は、警告を出力しないと判定した場合であっても、頭上に表示装置110がある状態で表示内容が変化した場合に、警告を出力すると判定してもよい。
以上記載した各実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)
情報処理端末の画面に表示情報が表示されている際に、前記情報処理端末に搭載される第1の撮像装置を用いて前記画面に向けられている前記ユーザの視線方向を検知するとともに、前記情報処理端末に搭載される第2の撮像装置を用いて画像を撮影し、
前記視線方向及び前記画像に基づいて、前記表示内容に関連する警告の出力制御を行う、処理を情報処理端末に実行させる
ことを特徴とする情報処理プログラム。
(付記2)
前記第1の撮像装置で検知された前記視線方向が前記画面に向けられている時間である目視時間を積算し、
前記目視時間が所定の時間以上である場合に、前記ユーザが前記画面に表示されている前記表示情報を確認したと判定する
ことを特徴とする付記1に記載の情報処理プログラム。
(付記3)
前記第2の撮像装置で撮影された前記画像から複数の特徴点を抽出し、
前記表示装置の移動量のベクトル値が所定値よりも小さい場合に、前記ユーザが作業状態にあると判定する
ことを特徴とする付記1に記載の情報処理プログラム。
(付記4)
前記第2の撮像装置で撮影された前記画像から複数の特徴点を抽出し、
前記特徴点の移動量のベクトル値が所定値以上の場合に、前記画面が、前記ユーザが目視可能な位置にないと判定する
ことを特徴とする付記1に記載の情報処理プログラム。
(付記5)
前記第1の撮像装置で検知された前記視線方向が前記画面に向けられている時間である目視時間を積算し、
前記目視時間が所定の時間よりも小さい場合に、前記ユーザが前記画面に表示されている前記表示情報を確認していないと判定する、
ことを特徴とする付記1に記載の情報処理プログラム。
(付記6)
前記ユーザが前記表示内容を確認していない場合にも、以前に前記表示内容と同一の表示内容を前記ユーザが確認していた場合は、前記警告を出力しない
ことを特徴とする付記1に記載の情報処理プログラム。
(付記7)
前記画面が前記ユーザの目視可能な位置にない状態で、前記表示内容が変化した場合に、警告を出力する、
ことを特徴とする付記1に記載の情報処理プログラム。
(付記8)
表示情報を表示する表示部と、
第1の撮像装置と、
前記表示部に表示情報が表示されている際に、前記第1の撮像装置を用いて前記表示部に向けられている前記ユーザの視線方向を検知する検知部と、
画像を撮影する第2の撮像装置と、
前記視線方向及び前記画像に基づいて、前記表示情報に関連する警告の出力制御を行う警告部と、
を備えることを特徴とする情報処理端末。
(付記9)
検知された前記視線方向が前記表示部に向けられている時間である目視時間を積算して算出する算出部と、
前記目視時間が所定の時間以上である場合に、前記ユーザが前記表示部に表示されている前記表示情報を確認したと判定する判定部と、を更に備える
ことを特徴とする付記8に記載の情報処理端末。
(付記10)
前記画像から複数の特徴点を抽出し、前記特徴点の移動量のベクトル値が所定値よりも小さい場合に、前記ユーザが作業状態にあると判定する検出部を、更に備える、
ことを特徴とする付記8に記載の情報処理端末。
(付記11)
前記画像から複数の特徴点を抽出し、前記特徴点の移動量のベクトル値が所定値以上の場合に、前記表示部が、前記ユーザが目視可能な位置にないと判定する検出部を、更に備える、
ことを特徴とする付記8に記載の情報処理端末。
(付記12)
検知された前記視線方向が前記表示部に向けられている時間である目視時間を積算する算出部と、
前記目視時間が所定の時間よりも小さい場合に、前記ユーザが前記表示部に表示されている前記表示情報を確認していないと判定する判定部と、を更に備える
ことを特徴とする付記8に記載の情報処理端末。
(付記13)
情報処理端末の画面に表示情報が表示されている際に、前記情報処理端末に搭載される第1の撮像装置を用いて前記画面に向けられている前記ユーザの視線方向を検知するとともに、前記情報処理端末に搭載される第2の撮像装置を用いて画像を撮影し、
前記視線方向及び前記画像に基づいて、前記表示情報に関連する警告の出力制御を行う
ことを特徴とする情報処理方法。
(付記14)
前記第1の撮像装置で検知された前記視線方向が前記画面に向けられている時間である目視時間を積算し、
前記目視時間が所定の時間以上である場合に、前記ユーザが前記画面に表示されている前記表示情報を確認したと判定する
ことを特徴とする付記13に記載の情報処理方法。
(付記15)
前記第2の撮像装置で撮影された前記画像から複数の特徴点を抽出し、
前記表示装置の移動量のベクトル値が所定値よりも小さい場合に、前記ユーザが作業状態にあると判定する
ことを特徴とする付記13に記載の情報処理方法。
(付記16)
前記第2の撮像装置で撮影された前記画像から複数の特徴点を抽出し、
前記特徴点の移動量のベクトル値が所定値以上の場合に、前記画面が、前記ユーザが目視可能な位置にないと判定する
ことを特徴とする付記13に記載の情報処理方法。
(付記17)
前記第1の撮像装置で検知された前記視線方向が前記画面に向けられている時間である目視時間を積算し、
前記目視時間が所定の時間よりも小さい場合に、前記ユーザが前記画面に表示されている前記表示情報を確認していないと判定する、
ことを特徴とする付記13に記載の情報処理方法。
100 情報処理端末
110 表示装置
120 ヘッドバンド
210 第一のカメラ
220 ディスプレイ
230 第二のカメラ
301 目領域撮影部
302 視線方向検知部
303 目視判定部
304 目視時間算出部
305 外界撮影部
306 状態検出部
307 移動判定部
308 警告判定部
309 警告部
310 表示部
311 記憶部

Claims (9)

  1. 情報処理端末の画面に表示情報が表示されている際に、前記情報処理端末に搭載される第1の撮像装置を用いて前記画面に向けられている前記ユーザの視線方向を検知するとともに、前記情報処理端末に搭載される第2の撮像装置を用いて画像を撮影し、
    前記視線方向及び前記画像に基づいて、前記表示情報に関連する警告の出力制御を行う、処理を情報処理端末に実行させる
    ことを特徴とする情報処理プログラム。
  2. 前記第1の撮像装置を用いて検知された前記視線方向が前記画面に向けられている時間である目視時間を積算し、
    前記目視時間が所定の時間以上である場合に、前記ユーザが前記画面に表示されている前記表示情報を確認したと判定する
    ことを特徴とする請求項1に記載の情報処理プログラム。
  3. 前記第2の撮像装置で撮影された前記画像から複数の特徴点を抽出し、
    前記表示装置の移動量のベクトル値が所定値よりも小さい場合に、前記ユーザが作業状態にあると判定する
    ことを特徴とする請求項1に記載の情報処理プログラム。
  4. 前記第2の撮像装置で撮影された前記画像から複数の特徴点を抽出し、
    前記特徴点の移動量のベクトル値が所定値以上の場合に、前記画面が、前記ユーザが目視可能な位置にないと判定する
    ことを特徴とする請求項1に記載の情報処理プログラム。
  5. 前記第1の撮像装置で検知された前記視線方向が前記画面に向けられている時間である目視時間を積算し、
    前記目視時間が所定の時間よりも小さい場合に、前記ユーザが前記画面に表示されている前記表示情報を確認していないと判定する、
    ことを特徴とする請求項1に記載の情報処理プログラム。
  6. 前記ユーザが前記表示内容を確認していない場合にも、以前に前記表示内容と同一の表示内容を前記ユーザが確認していた場合は、前記警告を出力しない
    ことを特徴とする請求項1に記載の情報処理プログラム。
  7. 前記画面が前記ユーザの目視可能な位置にない状態で、前記表示内容が変化した場合に、警告を出力する、
    ことを特徴とする請求項1に記載の情報処理プログラム。
  8. 表示情報を表示する表示部と、
    第1の撮像装置と、
    前記表示部に表示情報が表示されている際に、前記第1の撮像装置を用いて前記表示部に向けられている前記ユーザの視線方向を検知する検知部と、
    画像を撮影する第2の撮像装置と、
    前記視線方向及び前記画像に基づいて、前記表示情報に関連する警告の出力制御を行う警告部と、
    を備えることを特徴とする情報処理端末。
  9. 情報処理端末の画面に表示情報が表示されている際に、前記情報処理端末に搭載される第1の撮像装置を用いて前記画面に向けられている前記ユーザの視線方向を検知するとともに、前記情報処理端末に搭載される第2の撮像装置を用いて画像を撮影し、
    前記視線方向及び前記画像に基づいて、前記表示情報に関連する警告の出力制御を行う
    ことを特徴とする情報処理方法。
JP2016178622A 2016-09-13 2016-09-13 情報処理プログラム、情報処理端末及び情報処理方法 Pending JP2018045373A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016178622A JP2018045373A (ja) 2016-09-13 2016-09-13 情報処理プログラム、情報処理端末及び情報処理方法
US15/689,423 US20180074327A1 (en) 2016-09-13 2017-08-29 Non-transitory computer-readable storage medium, information processing terminal, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016178622A JP2018045373A (ja) 2016-09-13 2016-09-13 情報処理プログラム、情報処理端末及び情報処理方法

Publications (1)

Publication Number Publication Date
JP2018045373A true JP2018045373A (ja) 2018-03-22

Family

ID=61558723

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016178622A Pending JP2018045373A (ja) 2016-09-13 2016-09-13 情報処理プログラム、情報処理端末及び情報処理方法

Country Status (2)

Country Link
US (1) US20180074327A1 (ja)
JP (1) JP2018045373A (ja)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07294844A (ja) * 1994-04-22 1995-11-10 Canon Inc 表示装置
DE102008063328A1 (de) * 2008-12-30 2010-07-01 Hella Kgaa Hueck & Co. Verfahren und Vorrichtung zum Ermitteln einer Änderung des Nickwinkels einer Kamera eines Fahrzeugs
JP5551388B2 (ja) * 2009-07-21 2014-07-16 トヨタ自動車株式会社 節電システム
WO2014015521A1 (en) * 2012-07-27 2014-01-30 Nokia Corporation Multimodal interaction with near-to-eye display
US20160187976A1 (en) * 2014-12-29 2016-06-30 Immersion Corporation Systems and methods for generating haptic effects based on eye tracking
KR102381140B1 (ko) * 2015-02-25 2022-03-31 엘지전자 주식회사 디지털 디바이스 및 그의 운전자 모니터링 방법
US9652047B2 (en) * 2015-02-25 2017-05-16 Daqri, Llc Visual gestures for a head mounted device

Also Published As

Publication number Publication date
US20180074327A1 (en) 2018-03-15

Similar Documents

Publication Publication Date Title
JP6179927B2 (ja) 遠隔行動誘導システム及びその処理方法
JP4547040B1 (ja) 表示画像切替装置及び表示画像切替方法
KR20150048623A (ko) 화면 조작장치 및 화면 조작방법
JPWO2014016992A1 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
JP2013054661A (ja) 情報表示システム、情報表示方法、及び情報表示用プログラム
EP3675066A1 (en) Information processing device, system, image processing method, computer program, and storage medium
JP2013135341A5 (ja)
JP6494418B2 (ja) 画像解析装置、画像解析方法、およびプログラム
JP2019152980A (ja) 画像処理装置、画像処理方法、及びプログラム
JP4872396B2 (ja) 画像編集装置、画像編集方法および画像編集プログラム
JP6723720B2 (ja) 表示システム、情報処理方法及びプログラム
JP2012175207A (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
EP3136724B1 (en) Wearable display apparatus, information processing apparatus, and control method therefor
US11443719B2 (en) Information processing apparatus and information processing method
JP6419118B2 (ja) 画像表示システム
US11137600B2 (en) Display device, display control method, and display system
JP2011086049A (ja) 保全用携帯端末装置
JP6104066B2 (ja) 画像処理装置および画像処理方法
JP6319220B2 (ja) 透過型ウェアラブル端末、データ処理装置、及びデータ処理システム
JP2011095984A (ja) 画像表示装置
JP2015007722A (ja) 画像表示装置
JP2018045373A (ja) 情報処理プログラム、情報処理端末及び情報処理方法
WO2017169909A1 (ja) 作業支援装置、ウェアラブル端末、作業支援方法および記録媒体
JP2016111561A (ja) 情報処理装置、システム、情報処理方法及びプログラム
JP6686319B2 (ja) 画像投影装置及び画像表示システム