JP2018055320A - Information processing apparatus and information processing method - Google Patents
Information processing apparatus and information processing method Download PDFInfo
- Publication number
- JP2018055320A JP2018055320A JP2016189242A JP2016189242A JP2018055320A JP 2018055320 A JP2018055320 A JP 2018055320A JP 2016189242 A JP2016189242 A JP 2016189242A JP 2016189242 A JP2016189242 A JP 2016189242A JP 2018055320 A JP2018055320 A JP 2018055320A
- Authority
- JP
- Japan
- Prior art keywords
- guidance
- video
- display
- user
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、情報処理装置および情報処理方法に関する。 The present invention relates to an information processing apparatus and an information processing method.
現在、ユーザは、銀行またはコンビニエンスストアなどに設置されている現金自動預け払い機(ATM)または駅に設置されている乗車券発券機などの情報処理装置を用いて複数の異なる手続きを行うことができる。しかし、これらの情報処理装置における手続の中には難解な操作を行う手続がある。そのため、これらのATMまたは乗車券発券機においては、音声によるまたは画像表示によるガイダンスが行われる場合がある。 Currently, a user can perform a plurality of different procedures using an information processing device such as an automated teller machine (ATM) installed in a bank or a convenience store or a ticket issuing machine installed in a station. it can. However, among procedures in these information processing apparatuses, there are procedures for performing difficult operations. Therefore, in these ATMs or ticket issuing machines, guidance by voice or image display may be performed.
このようなガイダンスを行うシステムに関して下記の特許文献1が開示されている。特許文献1に開示されている音声ガイダンスシステムでは、ユーザの操作回数または前回の操作日から今回の操作日までの間隔日数などに基づいてガイダンスレベルが設定されることが記載されている。
The following
上述した特許文献1に開示されている音声ガイダンスシステムでは、ユーザの操作回数またはユーザが操作を行った日の間隔に基づいてガイダンスレベルが設定されるため、初めて情報処理装置を操作するユーザに対して適切なガイダンスが提供されない。
In the voice guidance system disclosed in
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、ユーザの初回操作においてもユーザに応じたガイダンス映像を提供することが可能な、新規かつ改良された情報処理装置および情報処理方法を提供することにある。 Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to provide a new and improved guidance image that can provide a user with a guidance video even in the first operation of the user. Another object is to provide an information processing apparatus and an information processing method.
上記課題を解決するために、本発明のある観点によれば、撮影部から入力されたユーザの映像から目領域を検出する目検出部と、前記目検出部によって検出された目領域の分析により、ガイダンス映像を表示する表示部のいずれの領域に視線が向いているかを検出する視線検出部と、前記ガイダンス映像に関して事前に設定された設定領域での視線の滞在がなかったことに基づき、前記ガイダンス映像に関する表示制御を行う制御部と、を備える、情報処理装置が提供される。 In order to solve the above-described problem, according to an aspect of the present invention, an eye detection unit that detects an eye region from a user's video input from an imaging unit, and an analysis of the eye region detected by the eye detection unit A line-of-sight detection unit that detects which region of the display unit that displays the guidance video is directed to the line-of-sight, and the absence of a line-of-sight stay in a preset region that is set in advance with respect to the guidance video, There is provided an information processing apparatus including a control unit that performs display control related to a guidance video.
前記制御部は、ある時間区間内に前記設定領域での視線の滞在があったことに基づき、前記時間区間の後区間において前記ガイダンス映像を非表示に制御し、前記時間区間内に前記設定領域での視線の滞在がなかったことに基づき、前記後区間においても前記ガイダンス映像を前記表示部に表示させてもよい。 The control unit controls the guidance video to be hidden in a subsequent section of the time interval based on the stay of the line of sight in the setting region within a certain time interval, and the setting region within the time interval The guidance video may be displayed on the display unit even in the rear section based on the fact that the line of sight was not stayed at.
前記制御部は、間隔を有する複数の時間区間において同一のガイダンス映像または異なるガイダンス情報を前記表示部に表示させ、一の時間区間で前記設定領域での視線の滞在がなかったことに基づき、前記一の時間区間と次の時間区間との間隔区間でも前記一の時間区間に表示された前記ガイダンス映像を前記表示部に表示させてもよい。 The control unit causes the display unit to display the same guidance video or different guidance information in a plurality of time intervals having intervals, and based on the fact that there was no stay of the line of sight in the setting area in one time interval, The guidance video displayed in the one time interval may be displayed on the display unit even in an interval between one time interval and the next time interval.
前記制御部は、前記設定領域での視線の滞在が無かったことに基づき、前記設定領域の表示を強調してもよい。 The control unit may emphasize the display of the setting area based on the absence of a line of sight staying in the setting area.
前記制御部は、前記後区間における前記ガイダンス映像の表示が、何回目の前記ガイダンス映像の表示であるかに基づき、前記設定領域の表示を強調するか否かを制御してもよい。 The control unit may control whether to emphasize the display of the setting area based on how many times the guidance video is displayed in the rear section.
前記情報処理装置は、前記ユーザの映像からユーザの表情を検出する表情検出部をさらに備え、前記制御部は、前記表情検出部により検出された前記ユーザの表情にさらに基づいて前記表示部の表示を制御してもよい。 The information processing apparatus further includes a facial expression detection unit that detects a facial expression of the user from the video of the user, and the control unit displays the display unit based on the facial expression of the user detected by the facial expression detection unit. May be controlled.
前記制御部は、前記ユーザの表情が所定の基準を満たす場合、前記ガイダンス映像の表示の後に、前記ガイダンス映像を補足する補足映像を前記表示部に表示させてもよい。 The control unit may display a supplemental video supplementing the guidance video on the display unit after the guidance video is displayed when the facial expression of the user satisfies a predetermined criterion.
前記制御部は、前記ユーザの表情の困惑度に応じて異なる補足映像を前記表示部に表示させてもよい。 The control unit may cause the display unit to display different supplemental images depending on the degree of embarrassment of the user's facial expression.
また、上記課題を解決するために、本発明の別の観点によれば、撮影部から入力されたユーザの映像から目領域を検出することと、検出された目領域の分析により、ガイダンス映像を表示する表示部のいずれの領域に視線が向いているかを検出することと、前記ガイダンス映像に関して事前に設定された設定領域での視線の滞在がなかったことに基づき、前記ガイダンス映像に関する表示制御を行うことと、を含む、情報処理方法が提供される。 In order to solve the above-described problem, according to another aspect of the present invention, a guidance image is detected by detecting an eye area from a user's image input from a photographing unit and analyzing the detected eye area. Based on the detection of which area of the display unit to display the line of sight is directed and the absence of the line of sight staying in the preset area for the guidance video, display control for the guidance video is performed. And an information processing method is provided.
以上説明したように本発明によれば、ユーザの初回操作においてもユーザに応じたガイダンス映像を提供することが可能である。 As described above, according to the present invention, it is possible to provide a guidance video corresponding to a user even in the first operation of the user.
以下に添付図面を参照しながら、本発明の実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.
<1.ガイダンス装置の概要>
図1は、本発明の実施形態に係るガイダンス装置100の外観の一例を示す図である。本発明の実施形態に係るガイダンス装置100は、現金自動預け払い機(ATM)または乗車券発券機のようなガイダンス情報をユーザに提供する情報処理装置である。ガイダンス装置100は、複数の異なる機能を有しており、ユーザはガイダンス装置100を操作することによって、複数の手続きを行うことができる。
<1. Outline of guidance device>
FIG. 1 is a diagram illustrating an example of an appearance of a
ここで、例えばガイダンス装置100がATMである場合、ガイダンス装置100が有する複数の異なる機能には、「現金の預け入れ」、「現金の引き出し」、「通帳記入」、「残高照会」、「振り込み」、「振り替え」、「暗証番号の変更」などが該当する。また例えばガイダンス装置100が乗車券発券機である場合、ガイダンス装置100が有する複数の異なる機能には、「乗車券の購入」、「回数券の購入」、「定期券の購入」、「指定席の変更」、「電子マネーのチャージ」などが該当する。
Here, for example, when the
また、ガイダンス装置100は、図1に示したように、表示部102と、撮影部106と、スピーカ108とを備える。表示部102は、ユーザに操作を案内する映像、または現在行われているキャンペーンを案内する映像などのガイダンス映像を含むガイダンス表示画面を表示する。ここで、図2を参照し、表示部102に表示されるガイダンス表示画面の具体例を説明する。
Further, the
図2は、「振り込み」の操作を案内するガイダンス表示画面の具体例を示す説明図である。図2に示したように、ガイダンス表示画面は、簡略メッセージ映像40、およびガイダンス映像50を含む。簡略メッセージ映像40は、ユーザによる操作を案内する簡略なメッセージを示す。例えば、「振り込み」の機能における金融機関の選択フェーズにおいては、図2に示したように、「振込先の金融機関を選んで下さい。」というメッセージを含む簡略メッセージ映像40が表示される。
FIG. 2 is an explanatory diagram showing a specific example of a guidance display screen for guiding the “transfer” operation. As shown in FIG. 2, the guidance display screen includes a
ガイダンス映像50は、ユーザが実行しようとしている機能、および当該機能の実行のための操作のフェーズに応じて表示(再生)される映像である。例えば、「振り込み」の機能における金融機関の選択フェーズにおいて表示されるガイダンス映像50は、図2に示したように、「振込先の金融機関名のボタンが有る場合には、そのボタンを選択して下さい。」、「無い場合には、50音検索またはフリーワード検索を選択して下さい。」のように、金融機関の選択フェーズにおける操作方法を具体的に案内する表示を含む。当該ガイダンス映像50は、静止画であってもよいし、動画であってもよい。
The
撮影部106は、ガイダンス装置100を操作するユーザを撮影する。後述するように撮影部106は、ユーザの視線および表情を検出するために用いられる画像を撮影する。例えば、撮影部106は、CCD(Charged Coupled Devices)カメラであってもよい。スピーカ108は、ガイダンス表示画面に対応する音声ガイダンスを出力する。
The photographing
(背景)
上述したガイダンス表示画面において、ガイダンス映像は、例えば図3に示すように所定の間隔で表示される。所定の間隔で表示される複数のガイダンス映像は、同一のガイダンス映像であってもよいし、異なるガイダンス映像であってもよい。この所定の間隔で表示されるガイダンス映像は、基本ガイダンス情報とも呼ばれる。
(background)
On the guidance display screen described above, the guidance video is displayed at a predetermined interval as shown in FIG. 3, for example. The plurality of guidance videos displayed at predetermined intervals may be the same guidance video or different guidance videos. The guidance video displayed at this predetermined interval is also called basic guidance information.
しかし、どのユーザにも同一のガイダンス表示画面を同一の区間で提供する方法では、ユーザによる操作を効果的に誘導することが困難である。例えば、ガイダンス表示画面の内容を理解できずに困惑しているユーザにはより丁寧な情報が提供されることが望まれる。また、ガイダンス表示画面における重要部分を未だ見ていないユーザにはガイダンス表示画面の表示の継続が望まれる。 However, in the method of providing the same guidance display screen to any user in the same section, it is difficult to effectively guide the user's operation. For example, it is desirable to provide more polite information to users who are confused because they cannot understand the content of the guidance display screen. Further, it is desired that the user who has not yet seen the important part on the guidance display screen to continue displaying the guidance display screen.
そこで、上記事情を一着眼点にして本発明の実施形態を創作するに至った。本発明の実施形態によれば、ユーザの視線および表情の検出に基づき、ユーザに効果的なガイダンス映像を提供することが可能である。以下、このような本発明の実施形態によるガイダンス装置100の構成および動作を順次詳細に説明する。
Then, it came to create embodiment of this invention from the above circumstances. According to the embodiment of the present invention, it is possible to provide an effective guidance video to the user based on detection of the user's line of sight and facial expression. Hereinafter, the configuration and operation of the
<2.ガイダンス装置の構成>
図4は、本発明の実施形態によるガイダンス装置100の内部構成を示す説明図である。図4に示したように、本発明の実施形態によるガイダンス装置100は、図1を参照して説明した表示部102、撮影部106およびスピーカ108に加えて、操作部104、処理部114、通信部110および記憶部112と、を有する。処理部114は、ガイダンス制御部116と、操作処理部118と、情報取得部120と、画像処理部122と、を有する。
<2. Configuration of guidance device>
FIG. 4 is an explanatory diagram showing an internal configuration of the
(操作部)
操作部104は、例えばタッチパネルであってもよく、またはテンキーなどのハードキーであってもよい。通信部110は、LAN(Local Area Network)などのネットワークを通じて外部のデータベースなどとデータの送受信を行うために用いられる。通信部110は、有線通信に対応する機能を有してもよいし、また無線通信に対応する機能を有してもよい。
(Operation section)
The
(記憶部)
記憶部112には、各種のプログラムおよびデータが記憶されている。記憶部112は、半導体メモリまたはハードディスク装置であってもよく、RAM(Random Access Memory)および不揮発性メモリなどで構成されていてもよい。ハードディスク装置には、OS(Operation System)および各種アプリケーションが記憶されていてもよい。RAMは、処理部114がプログラムに基づいて処理を実行するために用いられる各種のデータを記憶するワークメモリであってもよい。RAMには、表示部102に表示される表示画面、操作部104から入力された操作情報、撮影部106で撮影されたユーザの顔画像などの各種情報が記憶されてもよい。なお、不揮発性メモリは、電源をオフにしても記憶内容が消去されないメモリ(フラッシュメモリ)であり、各種設定情報が記憶される。
(Memory part)
The
(ガイダンス制御部)
ガイダンス制御部116は、表示部102によるガイダンス表示画面の表示、およびスピーカ108からの音声ガイダンスの出力を制御する制御部の一例である。詳細については後述するように、ガイダンス制御部116は、画像処理部122により検出されるユーザの視線および表情に応じて、ガイダンス表示画面および音声ガイダンスに関する制御を行う。また、ガイダンス制御部116は、他の表示画面を表示部102に表示させる表示制御部としての機能を有してもよい。例えば、ガイダンス制御部116は、操作部104からの指示に基づいて記憶部112から表示する情報を読み込み、読み込まれた情報に基づく画面を表示部102に表示させてもよい。
(Guidance control unit)
The
(操作処理部)
操作処理部118は、操作部104から入力された操作情報を取得する。操作処理部118は、操作部104から入力された操作情報を記憶部112に送る。また、操作処理部118は、操作部104がユーザによって操作された位置に対応する表示部102上の表示座標位置を算出する。そして操作処理部118は、算出された表示位置座標と対応するオブジェクトをユーザが操作したと判定する。
(Operation processing part)
The
(画像処理部)
画像処理部122は、撮影部106から入力された画像情報を処理する。画像処理部122は、顔検出部124と、目検出部126と、視線検出部128と、表情検出部130と、を有する。
(Image processing unit)
The
/顔検出部/
顔検出部124は、ユーザの顔を検出する。顔検出部124は、例えばエッジ検出または形状パターン検出によって候補領域を抽出し、抽出された候補領域を小領域に分割し、各領域の特徴点を予め設定された顔領域パターンと照合してもよい。また、顔検出部124は、各候補領域の濃度が所定の閾値に対応する値である場合に胴体候補領域を抽出し、顔および胴体候補領域の濃度または彩度のコントラストを用いて顔領域を抽出してもよい。
/ Face detector /
The
/目検出部/
目検出部126は、ユーザの目を検出するために用いられる。目検出部126は、例えば顔検出部124によって検出された顔領域の中から、目の白目部分を角膜反射の候補として検出し、また目の黒目部分を瞳孔の候補として検出する。
/ Eye detector /
The
/視線検出部/
視線検出部128は、ユーザの視線が表示部102のいずれの領域に視線が向いているかを検出するために用いられる。視線検出部128による視線の検出は、例えば、目検出部126により検出された目頭の位置に対して、視点となる虹彩がどの位置にあるのかを判定することによって行われる。具体的には、左目の虹彩が目頭から離れていればユーザが表示部102の左側を見ていると判定し、左目の目頭と虹彩が近ければユーザが表示部102の右側を見ていると判定する。
/ Gaze detection unit /
The line-of-
図5は、表示部102の領域分割の具体例を示す説明図である。図5に示したように、表示部102は複数の領域に分割され、視線検出部128は、ユーザの視線が表示部102のいずれの領域に向いているかを検出する。図5に示した例では、領域E1〜E3が図2に示した簡略メッセージ映像40の表示領域に対応し、領域E4〜E15が図2に示したガイダンス映像50の表示領域に対応する。
FIG. 5 is an explanatory diagram illustrating a specific example of area division of the
なお、表示部102が17インチディスプレイであり、表示部102の表示ドット数が1280×1024ドットである場合、図5で示される領域E1〜E15の各々の大きさは、おおよそ423×208ドットである。
When the
視線検出部128は、さらに、特定された視線位置に対して視線が留まっていた時間を測定する。例えば、視線検出部128は、ある視線位置から75ドットの範囲内に視線が留まっていた時間を、上記視線位置に対して視線が留まっていた時間として測定してもよい。
The line-of-
75ドットという値は、上述した大きさおよびドット数を有する表示部102をユーザが60cmの離れたところから見ていると想定した場合の中心視の大きさを考慮して算出される値である。中心視は、人が一点を凝視しているときに色や形を正確に捉えることができる領域であり、上述した表示部102において当該領域の径は2cmである。そして、上述した大きさとドット数を有する表示部102においては、2cmは75ドットに相当する。なお、上述した視線を判定するために用いられるドット数は、表示部102が有するドット数に応じて変更されてもよい。
The value of 75 dots is a value calculated in consideration of the size of central vision when it is assumed that the user is viewing the
/表情検出部/
表情検出部130は、ユーザが表示部102を見ているときの表情を検出するために用いられる。表情検出部130は、顔検出部124で検出された顔領域の中で目や口の動きの変化を測定し、測定された変化と、あらかじめ設定された表情推定用データを照合して表情を検出する。
/ Face detection unit /
The
図6は、ユーザ300の顔画像から得られる複数の特徴点の例を示す図である。図6に示すように、顔検出部124によって、ユーザ300の顔画像から特徴点として、左眉P1〜P3、右眉P4〜P6、左目P7〜P10、右目P11〜P14、口P15〜P18が検出される。
FIG. 6 is a diagram illustrating an example of a plurality of feature points obtained from the face image of the
以下では、具体的な例として、ニュートラルな表情と比較した困惑の表情の特徴について説明する。しかし、他の表情も困惑の表情と同様に固有の特徴を有している。したがって、それぞれの表情は、固有の特徴に基づいて認識され得る。 In the following, as a specific example, the characteristics of the embarrassed facial expression compared to the neutral facial expression will be described. However, other facial expressions have unique features as well as puzzled facial expressions. Accordingly, each facial expression can be recognized based on unique features.
図7は、ニュートラルな表情と困惑の表情の関係を説明するための図である。画像F1は、ユーザ300の表情がニュートラルな表情である場合に撮像された左眉毛画像(P1〜P3)と左目画像(P7〜P10)である。一方、画像F2は、ユーザ300の表情が困惑の表情である場合に撮像された左眉毛画像(P1〜P3)と左目画像(P7〜P10)である。画像F1に写るニュートラルな表情と比較すると、画像F2に写る困惑の表情においては、眉毛と目の距離が短くなり(特に、眉毛の特徴点P1〜P3と目の上部の特徴点P7〜P9が変化しており)、目の開きが細くなっている(特に、目の特徴点P8とP10が変化している)。
FIG. 7 is a diagram for explaining the relationship between a neutral expression and a confused expression. Image F1 is a left eyebrow image (P1 to P3) and a left eye image (P7 to P10) captured when the facial expression of
図8は、各特徴点の位置の管理例を示す説明図である。図8に示したように、ニュートラルな表情における各特徴点の位置(ニュートラル位置)、および各特徴点の現在位置が管理される。表情検出部130は、各特徴点のニュートラル位置と現在位置との差分の傾向を、表情推定用データと照合することにより、ユーザの表情を推定する。図8には、検出結果として、ユーザの表情が困惑の表情であり、困惑度がL1である例を示している。なお、表情検出部130は、ユーザがガイダンス装置100の操作を開始した時のユーザの表情をニュートラルな表情として扱ってもよい。
FIG. 8 is an explanatory diagram showing an example of management of the position of each feature point. As shown in FIG. 8, the position of each feature point (neutral position) in the neutral facial expression and the current position of each feature point are managed. The facial
上述した視線検出部128および表情検出部130により得られる検出情報は、記憶部112に記憶され、ガイダンス制御部116によるガイダンスの制御に用いられる。
Detection information obtained by the above-described line-of-
<3.ガイダンスの制御例>
以上、本発明の実施形態によるガイダンス装置100の構成を説明した。続いて、ガイダンス制御部116によるガイダンス映像の表示制御についてより詳細に説明する。
<3. Guidance control example>
The configuration of the
ガイダンス映像は複数の領域から構成され、各領域が有する情報の重要性(有用性)は異なり得る。相対的に重要な情報を有する領域はユーザに視認されることが望まれる。このため、ガイダンス情報ごとに、相対的に重要な情報を有する領域(以下、設定領域と称する。)が設定される。また、ガイダンス映像の内容を理解できずに困惑しているユーザにはより丁寧な情報が提供されることが望まれる。このため、ガイダンス情報ごとに、当該ガイダンス情報を補足する補足映像が設定される。以下、図9を参照し、ガイダンス情報ごとの設定を示す設定テーブルの具体例を説明する。 The guidance video is composed of a plurality of areas, and the importance (usefulness) of information included in each area may be different. It is desired that the area having relatively important information is visually recognized by the user. Therefore, an area having relatively important information (hereinafter referred to as a setting area) is set for each guidance information. In addition, it is desired that more polite information be provided to users who are confused because they cannot understand the content of the guidance video. For this reason, a supplementary video supplementing the guidance information is set for each guidance information. Hereinafter, a specific example of a setting table indicating settings for each guidance information will be described with reference to FIG.
図9は、設定テーブルの具体例を示す説明図である。図9に示したように、設定テーブルにおいては、各ガイダンス映像に、設定領域および補足映像が関連付けられる。図9に示した例では、ガイダンス映像1には、設定領域として領域E8、E9、E11およびE12が関連付けられ、補足映像として補足映像1が関連付けられる。当該設定テーブルは記憶部112に記憶され、ガイダンス制御部116により参照される。なお、例えば図2に示したガイダンス映像に関連付けられる補足映像としては、例えば図10に示したように、50音検索の説明を補足する情報を含む映像が挙げられる。
FIG. 9 is an explanatory diagram of a specific example of the setting table. As shown in FIG. 9, in the setting table, a setting area and a supplementary video are associated with each guidance video. In the example shown in FIG. 9, the
ガイダンス制御部116は、上述した設定テーブルに基づき、ガイダンス映像に関する表示制御を行う。以下、ガイダンス制御部116が行い得る幾つかのガイダンス制御を順次説明する。
The
(3−1.第1のガイダンス制御例)
図11は、第1のガイダンス制御例を示すフローチャートである。まず、ガイダンス装置100が人体センサなどによってユーザを検出すると、撮影部106が起動して撮像を開始し、表示部102が、記憶部112に記憶されたガイダンス映像(基本ガイダンス映像)を含むガイダンス表示画面の表示を開始する(S302)。なお、本フローは、ユーザの検出でなく、表示部102の画面遷移に連動して開始してもよい。また、S302において、スピーカ108も、ガイダンス制御部116による制御に基づいて、記憶部112に記憶された音声ガイダンスの出力を開始してもよい。
(3-1. First Guidance Control Example)
FIG. 11 is a flowchart illustrating a first guidance control example. First, when the
そして、顔検出部124が撮影部106から入力されるユーザの映像からユーザの顔を検出し(S304)、目検出部126がユーザの顔から目領域を検出する(S306)。さらに、視線検出部128が、ユーザの目領域の分析により、ユーザの視線がガイダンス映像のいずれの領域に向いているかを検出する(S308)。例えば、視線検出部128が、図5に示した領域E1〜E15のいずれの領域にユーザの視線が向いているかを検出し、例えば図12に示すように100msなどの単位時間ごとに検出結果を記憶部112に記録する。
Then, the
その後、ガイダンス制御部116が、図9に示した設定テーブルに基づき、全ての設定領域での視線の滞在が認められたか、すなわち、全ての設定領域をユーザが見たかを判断する(S312)。ここで、ガイダンス制御部116は、視線がある領域に所定時間以上に渡って留まっていた場合に、当該領域に視線が滞在していたと判断する。所定時間は、例えば200msであってもよい。200msという時間は、一般的な視線のサッケードの時間(人が物体を見ようとして注視点を変えるときに要する時間)を考慮した時間である。
After that, the
S312において全ての設定領域での視線の滞在が認められなかった場合(S312/no)、ガイダンス制御部116は、ガイダンス映像の再表示フラグをセットする(S314)。一方、S312において全ての設定領域での視線の滞在が認められた場合(S312/yes)、ガイダンス制御部116は、ガイダンス映像の再表示フラグをクリアする(S320)。例えば、ガイダンス制御部116は、図12に示したように、全ての設定領域での視線の滞在が認められない間は再表示フラグを「1」にセットし、全ての設定領域での視線の滞在が認められた後は再表示フラグを「0」にクリアする。
If the stay of the line of sight in all the setting areas is not recognized in S312 (S312 / no), the
また、表情検出部130が、ユーザの顔の映像から、ユーザの表情を検出する(S322)。そして、ガイダンス制御部116は、ユーザの表情が困惑の表情である場合(S324/yes)、図12に示すように困惑フラグをセットする(S326)。上述したS304〜S326の処理が、ガイダンス映像の表示の時間区間が終了するまで繰り返される。
In addition, the facial
その後、ユーザによる操作が開始されると、ガイダンス制御が終了する(S332/yes)。ユーザによる操作が開始されない場合(S332/no)、ガイダンス制御部116は、困惑フラグがセットされた頻度、すなわち、ガイダンス映像の表示時間に対して困惑フラグがセットされた時間の割合を確認する(S334)。
Thereafter, when an operation by the user is started, the guidance control ends (S332 / yes). When the operation by the user is not started (S332 / no), the
そして、ガイダンス制御部116は、ガイダンス映像の表示が終了した時点での再表示フラグが「1」にセットされている場合(S336/yes)、ガイダンス映像を表示部102に再度表示させる(S338)。一方、ガイダンス制御部116は、ガイダンス映像の表示が終了した時点での再表示フラグが「0」にクリアされている場合(S336/no)、困惑フラグの頻度に応じて表示を制御する。具体的には、困惑フラグの頻度が所定値(例えば、30%)より低い場合(S340/yes)、ガイダンス制御部116はガイダンス映像を表示部102に再度表示させる(S338)。一方、困惑フラグの頻度が所定値(例えば、30%)以上である場合(S340/no)、ガイダンス制御部116は、設定テーブルを参照し、表示されていたガイダンス映像に関連付けられた補足映像を表示部102に表示させる(S342)。
Then, when the re-display flag at the time when the display of the guidance video ends is set to “1” (S336 / yes), the
要すると、S302においてガイダンス映像1が表示され、S338の処理が行われる場合、図13に示したようにガイダンス映像1が繰り返して表示される。一方、S342の処理が行われる場合、図13に示したようにガイダンス映像1の補足映像が表示される。当該補足映像が表示された後、ガイダンス映像が非表示となり、次にガイダンス映像1と異なるガイダンス映像2の表示が開始され、S302からの処理が繰り返されてもよい。
In short, the
以上説明したように、第1のガイダンス制御例によれば、ユーザの視線および表情の検出に基づき、ユーザに適切なガイダンス映像を提供することが可能である。例えば、ガイダンス映像の内容を理解できずに困惑しているユーザにはより丁寧な情報を提供し、ガイダンス映像における設定領域を未だ見ていないユーザにはガイダンス映像の表示を継続することが可能である。 As described above, according to the first guidance control example, it is possible to provide an appropriate guidance video to the user based on the detection of the user's line of sight and facial expression. For example, it is possible to provide more polite information to users who are puzzled because they cannot understand the contents of the guidance video, and to continue displaying the guidance video to users who have not yet seen the setting area in the guidance video. is there.
(3−2.第2のガイダンス制御例)
続いて、第2のガイダンス制御例を説明する。図14は、第2のガイダンス制御例を示すフローチャートである。図14に示したフローチャートのS302〜S336およびS340〜S342の処理は、図11に示した第1のガイダンス制御例におけるS302〜S336およびS340〜S342の処理と実質的に同一である。
(3-2. Second guidance control example)
Subsequently, a second guidance control example will be described. FIG. 14 is a flowchart illustrating a second guidance control example. The processes of S302 to S336 and S340 to S342 in the flowchart shown in FIG. 14 are substantially the same as the processes of S302 to S336 and S340 to S342 in the first guidance control example shown in FIG.
第2のガイダンス制御例は、第1のガイダンス制御例との主な差異として、S339の処理を有する。具体的には、ガイダンス制御部116は、ガイダンス映像の表示が終了した時点での再表示フラグが「1」にセットされている場合(S336/yes)、設定領域が強調されるように、ガイダンス映像を表示部102に再度表示させる(S339)。強調の方法は、設定領域を囲う枠を表示することであってもよいし、設定領域と他の領域の表示態様を異ならせること(例えば、設定領域の輝度を相対的に上げる、設定領域はカラー表示で他の領域は白黒表示とする、など)であってもよい。
The second guidance control example has the process of S339 as a main difference from the first guidance control example. Specifically, when the redisplay flag at the time when the display of the guidance video ends is set to “1” (S336 / yes), the
かかる構成により、設定領域を未だ見ていないユーザが、再度のガイダンス映像の表示の際に設定領域に視線を向ける可能性を高めることが可能である。 With this configuration, it is possible to increase the possibility that a user who has not yet viewed the setting area turns his / her line of sight to the setting area when the guidance video is displayed again.
(3−3.第3のガイダンス制御例)
続いて、第3のガイダンス制御例を説明する。図15は、第3のガイダンス制御例を示すフローチャートである。図15に示したフローチャートのS302〜S332およびS340〜S342の処理は、図14に示した第2のガイダンス制御例におけるS302〜S332およびS340〜S342の処理と実質的に同一である。
(3-3. Third Guidance Control Example)
Subsequently, a third guidance control example will be described. FIG. 15 is a flowchart illustrating a third guidance control example. The processes of S302 to S332 and S340 to S342 in the flowchart shown in FIG. 15 are substantially the same as the processes of S302 to S332 and S340 to S342 in the second guidance control example shown in FIG.
第3のガイダンス制御例は、第2のガイダンス制御例との主な差異として、S303、S335、およびS344〜S348の処理を有する。すなわち、ガイダンス制御部116は、S302でのガイダンス映像の表示に基づき、再生回数カウンタを「0」にセットする(S303)。そして、S302〜S336の後、ガイダンス制御部116は再生回数カウンタをインクリメントする(S335)。
The third guidance control example includes the processes of S303, S335, and S344 to S348 as main differences from the second guidance control example. That is, the
その後、ガイダンス制御部116は、ガイダンス映像の表示が終了した時点での再表示フラグがセットされている場合(S336/yes)、再生回数カウンタの値に応じて異なる制御を行う。具体的には、ガイダンス制御部116は、再生回数カウンタが「n(例えば、n=1)」を上回る場合には、設定領域が強調されるように、ガイダンス映像を表示部102に再度表示させる(S348)。一方、ガイダンス制御部116は、再生回数カウンタが「n」以下である場合には、強調無しにガイダンス映像を表示部102に再度表示させる(S346)。S346およびS348の後は、S304からの処理が繰り返される。
After that, the
以上説明した第3のガイダンス制御例によれば、ガイダンス映像の「n+1」回目以降の表示において、設定領域を強調することが可能である。 According to the third guidance control example described above, it is possible to emphasize the setting region in the “n + 1” th and subsequent displays of the guidance video.
(3−4.第4のガイダンス制御例)
次に、第4のガイダンス制御例を説明する。図16は、第4のガイダンス制御例を示すフローチャートである。図16に示したフローチャートのS302〜S348の処理は、図15に示した第3のガイダンス制御例におけるS302〜S348の処理と実質的に同一である。
(3-4. Fourth guidance control example)
Next, a fourth guidance control example will be described. FIG. 16 is a flowchart illustrating a fourth guidance control example. The processes of S302 to S348 in the flowchart shown in FIG. 16 are substantially the same as the processes of S302 to S348 in the third guidance control example shown in FIG.
第4のガイダンス制御例は、第3のガイダンス制御例との主な差異として、S350〜S354の処理を有する。すなわち、第4のガイダンス制御例においては、1つのガイダンス映像に対して詳細度が異なる複数の補足映像が関連付けられており、ガイダンス制御部116は、困惑フラグの頻度が第1の閾値以上(S340/no)、第2の閾値未満である場合(S350/no)、簡易な補足映像を表示部102に表示させる(S354)。一方、ガイダンス制御部116は、第2の閾値以上である場合(S350/yes)、詳細な補足映像を表示部102に表示させる(S352)。
The fourth guidance control example has the processes of S350 to S354 as the main difference from the third guidance control example. That is, in the fourth guidance control example, a plurality of supplemental videos having different levels of detail are associated with one guidance video, and the
例えば、第1の閾値が30%であり、第2の閾値が70%である場合、当該第4のガイダンス制御例は、図17に示すように整理される。具体的には、困惑度が30%未満である場合にはガイダンス映像が再表示され、困惑度が30%以上70%未満である場合には簡易な補足映像が表示され、困惑度が70%以上である場合には詳細な補足映像が表示される。 For example, when the first threshold is 30% and the second threshold is 70%, the fourth guidance control example is arranged as shown in FIG. Specifically, when the degree of confusion is less than 30%, the guidance video is displayed again, and when the degree of confusion is 30% or more and less than 70%, a simple supplementary video is displayed, and the degree of confusion is 70%. In the case described above, a detailed supplemental video is displayed.
以上説明したように、第4のガイダンス制御例によれば、ユーザの困惑度に応じてよりきめ細かな対応をすることが可能となる。 As described above, according to the fourth guidance control example, it is possible to take a finer response according to the degree of user confusion.
(3−5.第5のガイダンス制御例)
続いて、第5のガイダンス制御例を説明する。第1〜第4のガイダンス制御例では、ユーザの視線および表情の双方が用いられたが、ユーザの視線または表情の一方に基づくガイダンス制御も可能である。以下では、ユーザの表情は用いず、ユーザの視線を用いる第5のガイダンス制御例を説明する。
(3-5. Fifth guidance control example)
Subsequently, a fifth guidance control example will be described. In the first to fourth guidance control examples, both the user's line of sight and facial expression are used, but guidance control based on one of the user's line of sight or facial expression is also possible. Below, the 5th guidance control example which does not use a user's facial expression but uses a user's eyes | visual_axis is demonstrated.
図18は、第5のガイダンス制御例を示すフローチャートである。まず、ガイダンス装置100が人体センサなどによってユーザを検出すると、撮影部106が起動して撮像を開始し、表示部102が、記憶部112に記憶されたガイダンス映像(基本ガイダンス映像)を含むガイダンス表示画面の表示を開始する(S302)。
FIG. 18 is a flowchart illustrating a fifth guidance control example. First, when the
そして、顔検出部124が撮影部106から入力されるユーザの映像からユーザの顔を検出し(S304)、目検出部126がユーザの顔から目領域を検出する(S306)。さらに、視線検出部128が、ユーザの目領域の分析により、ユーザの視線がガイダンス映像のいずれの領域に向いているかを検出する(S308)。
Then, the
その後、ガイダンス制御部116が、図9に示した設定テーブルに基づき、全ての設定領域での視線の滞在が認められたか、すなわち、全ての設定領域をユーザが見たかを判断する(S312)。
After that, the
S312において全ての設定領域での視線の滞在が認められなかった場合(S312/no)、ガイダンス制御部116は、ガイダンス映像の再表示フラグをセットする(S314)。一方、S312において全ての設定領域での視線の滞在が認められた場合(S312/yes)、ガイダンス制御部116は、ガイダンス映像の再表示フラグをクリアする(S320)。例えば、ガイダンス制御部116は、図12に示したように、全ての設定領域での視線の滞在が認められない間は再表示フラグを「1」にセットし、全ての設定領域での視線の滞在が認められた後は再表示フラグを「0」にクリアする。上述したS304〜S320の処理が、ガイダンス映像の表示の時間区間が終了するまで繰り返される。
If the stay of the line of sight in all the setting areas is not recognized in S312 (S312 / no), the
その後、ユーザによる操作が開始されると、ガイダンス制御が終了する(S332/yes)。ユーザによる操作が開始されない場合(S332/no)、ガイダンス制御部116は、かつ、ガイダンス映像の表示が終了した時点での再表示フラグが「1」にセットされている場合(S336/yes)、後区間においてガイダンス映像を表示部102に再度表示させる(S338)。一方、ガイダンス制御部116は、ガイダンス映像の表示が終了した時点での再表示フラグが「0」にクリアされている場合(S336/no)、後区間においてガイダンス映像の再表示を行わず、ガイダンス映像の非表示とする(S358)。
Thereafter, when an operation by the user is started, the guidance control ends (S332 / yes). When the operation by the user is not started (S332 / no), the
上述した第5のガイダンス制御例のように、設定領域を見たユーザにはガイダンス映像を再表示しない制御も実現可能である。 As in the above-described fifth guidance control example, it is also possible to realize control that does not redisplay the guidance video for the user who has viewed the setting area.
<4.むすび>
以上説明したように、本発明の実施形態によれば、ユーザの視線または表情の検出に基づき、ユーザに適切なガイダンス映像を提供することが可能である。例えば、ガイダンス映像の内容を理解できずに困惑しているユーザにはより丁寧な情報を提供し、ガイダンス映像における設定領域を未だ見ていないユーザにはガイダンス映像の表示を継続することが可能である。
<4. Conclusion>
As described above, according to the embodiment of the present invention, it is possible to provide an appropriate guidance video to the user based on the detection of the user's line of sight or facial expression. For example, it is possible to provide more polite information to users who are puzzled because they cannot understand the contents of the guidance video, and to continue displaying the guidance video to users who have not yet seen the setting area in the guidance video. is there.
なお、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。 Although the preferred embodiments of the present invention have been described in detail with reference to the accompanying drawings, the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.
例えば、上記ではATMまたは乗車券発券機のようなガイダンス装置100に本発明の実施形態が適用される例を主に説明したが、本発明の実施形態は他の情報処理システムにも適用可能である。他の情報処理システムとしては、教育支援システムが挙げられる。例えば、教育支援システムに本発明の実施形態を適用することにより、説明画面におけるポイント部分にユーザが視線を向けていない場合には当該説明画面を繰り返し表示することや、ユーザが説明内容を理解できずに困惑している場合には当該説明画面の補足画面を表示することが可能である。
For example, the example in which the embodiment of the present invention is applied to the
また、上記実施形態では、CCDカメラのような撮影部106により得られた映像が視線検出に用いられる例を説明したが、ガイダンス装置100は他の映像を用いて視線検出を行ってもよい。例えば、ガイダンス装置100は、赤外線LEDおよび赤外線カメラにより得られる赤外線映像における角膜反射や瞳孔の位置から視線を検出してもよい。さらに、スマートグラスのようなウェアラブル端末が撮影部106として使用されてもよい。
Moreover, although the said embodiment demonstrated the example which uses the image | video obtained by the imaging |
また、上記実施形態では、表情検出のための特徴点として、左眉および右眉の各々について3つの特徴点を説明し、左目、右目および口の各々について4つの特徴点を説明したが、特徴点の数および配置は上述した例に限定されない。例えば、口の特徴点は上唇の特徴点および下唇の特徴点に分けられてもよい。その他、視線検出および表情検出の方法は、実施形態として説明した方法に限定されない。 In the above embodiment, three feature points are described for each of the left and right eyebrows and four feature points for each of the left eye, right eye, and mouth as feature points for facial expression detection. The number and arrangement of the points are not limited to the example described above. For example, the mouth feature points may be divided into upper lip feature points and lower lip feature points. In addition, the method of gaze detection and facial expression detection is not limited to the method described as the embodiment.
また、ガイダンス制御部116は、ユーザの視線および表情を組み合わせてガイダンス制御を行ってもよい。例えば、ガイダンス制御部116は、ユーザが困惑の表情をしている場合、ユーザがいずれの領域に視線を向けているかに応じて、異なる補足映像を表示部102に表示させてもよい。例えば、ガイダンス制御部116は、図2に示した50音検索の領域に視線が向けられている時にユーザが困惑の表情をしている場合、50音検索についての補足画面を表示部102に表示させ、図2に示したフリーワード検索の領域に視線が向けられている時にユーザが困惑の表情をしている場合、フリーワード検索についての補足画面を表示部102に表示させてもよい。かかる構成により、よりユーザに合ったガイダンスを提供することが可能となる。
The
また、本明細書のガイダンス装置100の処理における各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、ガイダンス装置100処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
Further, each step in the processing of the
また、ガイダンス装置100に内蔵されるCPU、ROMおよびRAMなどのハードウェアに、上述したガイダンス装置100の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。
Further, it is possible to create a computer program for causing hardware such as a CPU, a ROM, and a RAM built in the
100 ガイダンス装置
102 表示部
104 操作部
106 撮影部
108 スピーカ
110 通信部
112 記憶部
114 処理部
116 ガイダンス制御部
118 操作処理部
120 情報取得部
122 画像処理部
124 顔検出部
126 目検出部
128 視線検出部
130 表情検出部
DESCRIPTION OF
Claims (9)
前記目検出部によって検出された目領域の分析により、ガイダンス映像を表示する表示部のいずれの領域に視線が向いているかを検出する視線検出部と、
前記ガイダンス映像に関して事前に設定された設定領域での視線の滞在がなかったことに基づき、前記ガイダンス映像に関する表示制御を行う制御部と、
を備える、情報処理装置。 An eye detection unit for detecting an eye region from the user's video input from the imaging unit;
By analyzing the eye area detected by the eye detection unit, a line-of-sight detection unit that detects which area of the display unit that displays the guidance video is directed to the line of sight;
A control unit that performs display control related to the guidance video based on the absence of a gaze stay in a preset area set in advance with respect to the guidance video;
An information processing apparatus comprising:
ある時間区間内に前記設定領域での視線の滞在があったことに基づき、前記時間区間の後区間において前記ガイダンス映像を非表示に制御し、
前記時間区間内に前記設定領域での視線の滞在がなかったことに基づき、前記後区間においても前記ガイダンス映像を前記表示部に表示させる、請求項1に記載の情報処理装置。 The controller is
Based on the stay of the line of sight in the set area within a certain time interval, the guidance video is controlled to be hidden in the latter interval of the time interval,
The information processing apparatus according to claim 1, wherein the guidance video is displayed on the display unit even in the rear section based on the absence of a line of sight in the setting area within the time section.
前記制御部は、前記表情検出部により検出された前記ユーザの表情にさらに基づいて前記表示部の表示を制御する、請求項1に記載の情報処理装置。 The information processing apparatus further includes a facial expression detection unit that detects a facial expression of the user from the video of the user,
The information processing apparatus according to claim 1, wherein the control unit controls display of the display unit further based on the facial expression of the user detected by the facial expression detection unit.
検出された目領域の分析により、ガイダンス映像を表示する表示部のいずれの領域に視線が向いているかを検出することと、
前記ガイダンス映像に関して事前に設定された設定領域での視線の滞在がなかったことに基づき、前記ガイダンス映像に関する表示制御を行うことと、
を含む、情報処理方法。 Detecting an eye area from the user's video input from the imaging unit;
By detecting the detected eye area, detecting which area of the display unit displaying the guidance video is facing,
Performing display control on the guidance video based on the absence of a line of sight in a preset area set in advance on the guidance video;
Including an information processing method.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016189242A JP6733461B2 (en) | 2016-09-28 | 2016-09-28 | Information processing apparatus and information processing method |
PCT/JP2017/018772 WO2018061299A1 (en) | 2016-09-28 | 2017-05-19 | Information processing device and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016189242A JP6733461B2 (en) | 2016-09-28 | 2016-09-28 | Information processing apparatus and information processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018055320A true JP2018055320A (en) | 2018-04-05 |
JP6733461B2 JP6733461B2 (en) | 2020-07-29 |
Family
ID=61759603
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016189242A Active JP6733461B2 (en) | 2016-09-28 | 2016-09-28 | Information processing apparatus and information processing method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6733461B2 (en) |
WO (1) | WO2018061299A1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021251107A1 (en) * | 2020-06-11 | 2021-12-16 | ソニーグループ株式会社 | Information processing device, information processing system, information processing method, and program |
WO2022113745A1 (en) * | 2020-11-30 | 2022-06-02 | マクセル株式会社 | Floating-in-space-image display device |
DE112021008145T5 (en) | 2021-10-25 | 2024-06-13 | Mitsubishi Electric Corporation | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND INFORMATION PROCESSING PROGRAM |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008003816A (en) * | 2006-06-21 | 2008-01-10 | Matsushita Electric Ind Co Ltd | Operation guide apparatus and operation guide method |
JP2009048336A (en) * | 2007-08-16 | 2009-03-05 | Oki Electric Ind Co Ltd | Automatic teller machine and automatic teller system |
JP2010117964A (en) * | 2008-11-14 | 2010-05-27 | Toyota Central R&D Labs Inc | Device and program for estimating confusion |
JP2013210909A (en) * | 2012-03-30 | 2013-10-10 | Dainippon Printing Co Ltd | Viewpoint guidance device and electronic book terminal |
JP2013222299A (en) * | 2012-04-16 | 2013-10-28 | Toyota Central R&D Labs Inc | Operation support device, operation system, operation support method and program |
WO2013179424A1 (en) * | 2012-05-30 | 2013-12-05 | パイオニア株式会社 | Display device, head-mounted display, display method, display program, and recording medium |
WO2014034065A1 (en) * | 2012-08-31 | 2014-03-06 | 株式会社デンソー | Moving body warning device and moving body warning method |
JP2014109916A (en) * | 2012-12-03 | 2014-06-12 | Fujitsu Ltd | User operation terminal device and user operation terminal program |
JP2015184698A (en) * | 2014-03-20 | 2015-10-22 | 京セラドキュメントソリューションズ株式会社 | Electronic instrument and operation support program |
JP2016066115A (en) * | 2014-09-22 | 2016-04-28 | カシオ計算機株式会社 | Digital content browsing support device, browsing support method, and program |
-
2016
- 2016-09-28 JP JP2016189242A patent/JP6733461B2/en active Active
-
2017
- 2017-05-19 WO PCT/JP2017/018772 patent/WO2018061299A1/en active Application Filing
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008003816A (en) * | 2006-06-21 | 2008-01-10 | Matsushita Electric Ind Co Ltd | Operation guide apparatus and operation guide method |
JP2009048336A (en) * | 2007-08-16 | 2009-03-05 | Oki Electric Ind Co Ltd | Automatic teller machine and automatic teller system |
JP2010117964A (en) * | 2008-11-14 | 2010-05-27 | Toyota Central R&D Labs Inc | Device and program for estimating confusion |
JP2013210909A (en) * | 2012-03-30 | 2013-10-10 | Dainippon Printing Co Ltd | Viewpoint guidance device and electronic book terminal |
JP2013222299A (en) * | 2012-04-16 | 2013-10-28 | Toyota Central R&D Labs Inc | Operation support device, operation system, operation support method and program |
WO2013179424A1 (en) * | 2012-05-30 | 2013-12-05 | パイオニア株式会社 | Display device, head-mounted display, display method, display program, and recording medium |
WO2014034065A1 (en) * | 2012-08-31 | 2014-03-06 | 株式会社デンソー | Moving body warning device and moving body warning method |
JP2014109916A (en) * | 2012-12-03 | 2014-06-12 | Fujitsu Ltd | User operation terminal device and user operation terminal program |
JP2015184698A (en) * | 2014-03-20 | 2015-10-22 | 京セラドキュメントソリューションズ株式会社 | Electronic instrument and operation support program |
JP2016066115A (en) * | 2014-09-22 | 2016-04-28 | カシオ計算機株式会社 | Digital content browsing support device, browsing support method, and program |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021251107A1 (en) * | 2020-06-11 | 2021-12-16 | ソニーグループ株式会社 | Information processing device, information processing system, information processing method, and program |
WO2022113745A1 (en) * | 2020-11-30 | 2022-06-02 | マクセル株式会社 | Floating-in-space-image display device |
DE112021008145T5 (en) | 2021-10-25 | 2024-06-13 | Mitsubishi Electric Corporation | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND INFORMATION PROCESSING PROGRAM |
Also Published As
Publication number | Publication date |
---|---|
WO2018061299A1 (en) | 2018-04-05 |
JP6733461B2 (en) | 2020-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6753331B2 (en) | Information processing equipment, methods and information processing systems | |
US8964066B2 (en) | Apparatus and method for generating image including multiple people | |
US9489574B2 (en) | Apparatus and method for enhancing user recognition | |
KR102092931B1 (en) | Method for eye-tracking and user terminal for executing the same | |
US9740282B1 (en) | Gaze direction tracking | |
US10254831B2 (en) | System and method for detecting a gaze of a viewer | |
US10281980B2 (en) | System and method for eye-reactive display | |
US20180321739A1 (en) | Electronic device and method for controlling display | |
CN107111749A (en) | System and method for improved display | |
CN105892642A (en) | Method and device for controlling terminal according to eye movement | |
JP2016530562A (en) | A method to support the visual search of individuals suffering from retinal diseases that cause dark spots | |
US11808940B2 (en) | Eye tracking system for smart glasses and method therefor | |
WO2018061299A1 (en) | Information processing device and information processing method | |
WO2018216402A1 (en) | Information processing apparatus, information processing method, and program | |
JP7099377B2 (en) | Information processing equipment and information processing method | |
US20240078846A1 (en) | Grid-Based Enrollment for Face Authentication | |
KR20190048144A (en) | Augmented reality system for presentation and interview training | |
US20180173305A1 (en) | Line-of-sight operation apparatus, method, and medical device | |
US20230244307A1 (en) | Visual assistance | |
KR20190085466A (en) | Method and device to determine trigger intent of user | |
CN115857856A (en) | Information prompting method, information prompting device, electronic equipment and readable storage medium | |
KR101996039B1 (en) | Apparatus for constructing training template of facial emotion recognition and method thereof | |
US11250242B2 (en) | Eye tracking method and user terminal performing same | |
US8223220B2 (en) | Image processing device, image processing method, and information storage medium | |
JP2017004258A (en) | Image processing apparatus, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190327 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190328 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190515 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200410 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200609 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200622 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6733461 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |