JP2018077417A - Display system, program, and display control method - Google Patents
Display system, program, and display control method Download PDFInfo
- Publication number
- JP2018077417A JP2018077417A JP2016220384A JP2016220384A JP2018077417A JP 2018077417 A JP2018077417 A JP 2018077417A JP 2016220384 A JP2016220384 A JP 2016220384A JP 2016220384 A JP2016220384 A JP 2016220384A JP 2018077417 A JP2018077417 A JP 2018077417A
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- partial image
- information
- gaze position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
この開示は、表示システム、プログラムおよび表示制御方法に関し、特に、表示画像に対するユーザーの注目を促すための表示システム、プログラムおよび表示制御方法に関する。 The present disclosure relates to a display system, a program, and a display control method, and more particularly, to a display system, a program, and a display control method for prompting a user to pay attention to a display image.
発表者がプレゼンテーションを行う際には、ホワイトボードやポスターなどのアナログ情報の資料または専用アプリケーションおよび会議向けソリューションなどのデジタル資料を用いることが多い。参加者は、発表者が提示するプレゼン資料を見ながら、発表を聴講する。 When presenters make presentations, analog information materials such as whiteboards and posters or digital materials such as dedicated applications and conference solutions are often used. Participants listen to the presentation while viewing the presentation material presented by the presenter.
情報を出力し、出力される情報に対してユーザーの注目を促すための技術として、例えば特許文献1(特開2000−184345号公報)は、ユーザーが参加者と共有する情報において、ユーザーの音声及び映像からユーザーの注目情報を抽出し、抽出した注目情報を他の参加者に伝達するマルチモーダルコミュニケーションシステムを開示する。 As a technique for outputting information and encouraging the user's attention to the output information, for example, Patent Document 1 (Japanese Patent Laid-Open No. 2000-184345) discloses a user's voice in information shared by a user with a participant. And a multimodal communication system for extracting user attention information from video and transmitting the extracted attention information to other participants.
また、特許文献2(特開2015−191554号公報)は、撮影画像からユーザーが注目する対象を決定し、決定された対象に、ユーザーの視線を誘導する電子機器を開示する。 Patent Document 2 (Japanese Patent Laid-Open No. 2015-191554) discloses an electronic device that determines a target that a user pays attention to from a captured image and guides the user's line of sight to the determined target.
また、特許文献3は(特開2000−339309号公報)は、視線追尾手段によってユーザーが注目している画面上の入力情報を文字列に変換する文字列解析装置を開示する。 Japanese Patent Application Laid-Open No. 2000-339309 discloses a character string analysis device that converts input information on a screen that a user is paying attention to into a character string by a line-of-sight tracking means.
プレゼンテーションを行う発表者は、プレゼンテーションの効果を得るために、発表者が提示する情報に、参加者の視線を誘導したいとの要望がある。上記の各特許文献では、このような視線を誘導するための構成は提供されていない。 There is a demand for a presenter who makes a presentation to guide the participant's line of sight to the information presented by the presenter in order to obtain the effect of the presentation. Each of the above patent documents does not provide a configuration for guiding such a line of sight.
この開示は、第1ユーザーの視線を、表示画像における第2ユーザーが指示する部分画像に誘導することが可能な表示システム、プログラムおよび表示制御方法を提供することである。 This disclosure is to provide a display system, a program, and a display control method capable of guiding the line of sight of a first user to a partial image indicated by a second user in a display image.
この開示のある局面に従う表示システムは、表示領域に表示される画像における第1ユーザーが注視する注視位置を判定する判定部と、画像における第2ユーザーが指定する部分画像の情報を取得する情報取得部と、表示領域に画像を表示中において判定される注視位置と部分画像の領域の情報とに基づき、部分画像が第1ユーザーにより注目されているか否かを判断する判断部と、を備え、部分画像は注目されていないと判断された場合に、表示領域において部分画像に視線を誘導するための誘導画像を表示する。 A display system according to an aspect of the present disclosure includes a determination unit that determines a gaze position at which a first user gazes in an image displayed in a display area, and information acquisition that acquires information on a partial image specified by a second user in the image And a determination unit that determines whether or not the partial image is attracting attention by the first user based on the gaze position determined during display of the image in the display region and the information on the partial image region, When it is determined that the partial image is not focused, a guide image for guiding the line of sight to the partial image is displayed in the display area.
好ましくは、表示領域は、第1ユーザーに対して画像を表示する第1表示領域と、第2ユーザーに対して画像を表示する第2表示領域と、を含み、判定部は、第1表示領域における第1ユーザーが注視する注視位置を判定し、情報取得部は、第2表示領域に表示される画像における第2ユーザーが指定する部分画像の情報を取得し、判断部は、第1表示領域に画像を表示中において判定される注視位置と部分画像の領域の情報とに基づき、部分画像が第1ユーザーにより注目されているか否かを判断し、表示システムは、部分画像は注目されていないと判断された場合に、第1表示領域において誘導画像を表示する。 Preferably, the display area includes a first display area for displaying an image for the first user and a second display area for displaying an image for the second user, and the determination unit includes the first display area. The gaze position at which the first user gazes is determined, the information acquisition unit acquires information on the partial image specified by the second user in the image displayed in the second display area, and the determination unit includes the first display area. The display system determines whether or not the partial image is attracting attention by the first user based on the gaze position determined during the display of the image and the information on the partial image area, and the display system does not attract the partial image. If it is determined, the guide image is displayed in the first display area.
好ましくは、表示領域は、画像を表示するための画面上の領域、または画像を投影するための投影面上の領域を含む。 Preferably, the display area includes an area on a screen for displaying an image, or an area on a projection surface for projecting an image.
好ましくは、情報取得部は、表示領域の画像が示す情報のうち、第2ユーザーが発話する音声にマッチングする部分情報を検出するマッチング部と、第2ユーザーの視線情報を取得する視線取得部と、を有し、第2ユーザーが指定する部分画像は、取得される視線情報に基づく表示領域における注視位置に対応する部分画像、またはポインタ画像が重畳表示される部分画像、または音声とマッチングする部分情報を表示する部分画像を含む。 Preferably, the information acquisition unit includes a matching unit that detects partial information that matches a voice uttered by the second user, and a line-of-sight acquisition unit that acquires the line-of-sight information of the second user. The partial image designated by the second user is a partial image corresponding to the gaze position in the display area based on the acquired line-of-sight information, a partial image on which a pointer image is superimposed or displayed, or a portion matching audio Includes partial images that display information.
好ましくは、第1ユーザーの表示領域に向けられた視線を示す視線情報を検出する視線検出部と、をさらに備え、判定部は、検出された視線情報から注視位置を判定する。 Preferably, a visual line detection unit that detects visual line information indicating a visual line directed to the display area of the first user, and the determination unit determines the gaze position from the detected visual line information.
好ましくは、判断部は、注視位置と部分画像の領域との距離または当該領域に注視位置が存在した時間の少なくとも一方に基づき、注目がなされているか否かを判断する。 Preferably, the determination unit determines whether or not attention is made based on at least one of a distance between the gaze position and the partial image area or a time when the gaze position exists in the area.
好ましくは、画像における注視位置の移動経路の履歴を取得する経路取得部を、さらに含み、移動経路が、注視位置は画像の部分画像の領域を通過した履歴を示す場合は、誘導画像を非表示にする。 Preferably, the image processing apparatus further includes a route acquisition unit that acquires a history of the movement path of the gaze position in the image, and when the movement path indicates a history of passing the region of the partial image of the image, the guide image is not displayed. To.
好ましくは、移動経路の履歴が、注視位置は部分画像の領域を通過したことを示さないときは、誘導画像を表示する。 Preferably, when the movement route history does not indicate that the gaze position has passed the area of the partial image, the guide image is displayed.
好ましくは、誘導画像の種類は、部分画像に向けられた矢印の画像、または部分画像の方向へ移動するカーソルの画像、または部分画像を強調する画像、または部分画像が表す情報をポップアップ表示する画像を含む。 Preferably, the type of the guide image is an image of an arrow directed to the partial image, an image of a cursor that moves in the direction of the partial image, an image that emphasizes the partial image, or an image that pops up information represented by the partial image including.
好ましくは、表示領域のサイズに基づき、表示される誘導画像の種類を変更する。
この開示の他の局面では、表示制御方法をコンピュータに実行させるためのプログラムが提供される。表示制御方法は、表示領域に表示される画像における第1ユーザーが注視する注視位置を取得するステップと、画像における第2ユーザーが指定する部分画像の情報を取得するステップと、表示領域に画像を表示中において取得される注視位置と部分画像の領域の情報とに基づき、部分画像が第1ユーザーにより注目されているか否かを判断するステップと、部分画像は注目されていないと判断された場合に、表示領域において部分画像に視線を誘導するための画像を表示するステップと、を備える。
Preferably, the type of the guide image to be displayed is changed based on the size of the display area.
In another aspect of the present disclosure, a program for causing a computer to execute a display control method is provided. The display control method includes a step of acquiring a gaze position at which the first user gazes in an image displayed in the display area, a step of acquiring information on a partial image designated by the second user in the image, and an image in the display area. A step of determining whether or not the partial image has received attention by the first user based on the gaze position acquired during display and the information on the area of the partial image, and a case in which it is determined that the partial image has not received attention And displaying an image for guiding the line of sight to the partial image in the display area.
この開示の他の局面に係る表示制御方法は、表示領域に表示される画像における第1ユーザーが注視する注視位置を取得するステップと、画像における第2ユーザーが指定する部分画像の情報を取得するステップと、表示領域に画像を表示中において取得される注視位置と部分画像の領域の情報とに基づき、部分画像が前記第1ユーザーにより注目されているか否かを判断するステップと、部分画像は注目されていないと判断された場合に、表示領域において部分画像に視線を誘導するための画像を表示するステップと、を備える。 In the display control method according to another aspect of the present disclosure, a step of acquiring a gaze position at which the first user gazes in an image displayed in the display area, and information on a partial image specified by the second user in the image are acquired. Determining whether the partial image is attracting attention by the first user based on the step, the gaze position acquired while displaying the image in the display area, and the information on the partial image area; And a step of displaying an image for guiding the line of sight to the partial image in the display area when it is determined that attention has not been paid.
この開示によれば、第1ユーザーの視線を、表示画像における第2ユーザーが指示する部分画像に誘導することが可能となる。 According to this disclosure, it is possible to guide the line of sight of the first user to the partial image indicated by the second user in the display image.
実施の形態について、以下、図面を参照しながら説明する。同一の部品および相当部品には同一の参照番号を付し、重複する説明は繰り返さない場合がある。 Hereinafter, embodiments will be described with reference to the drawings. The same parts and corresponding parts are denoted by the same reference numerals, and redundant description may not be repeated.
各実施の形態では、発表者と参加者は同じ画像を共有し得る。発表者は、画像において、参加者の視線による注目がなされるべき部分画像を指示する者である。参加者は「第1ユーザー」の一実施例であり、発表者は「第2ユーザー」の一実施例である。 In each embodiment, the presenter and the participant can share the same image. The presenter is a person instructing a partial image to be noticed by the participant's line of sight in the image. The participant is an example of “first user”, and the presenter is an example of “second user”.
各実施の形態では、画像を表示中に、参加者の視線情報から注視位置が判定されて、注視位置に基づき発表者が注目してほしい部分画像に注目がなされていないと判断されたときは、第2ユーザーの視線を部分画像に誘導するための誘導画像が表示される。 In each embodiment, when an image is displayed, the gaze position is determined from the gaze information of the participant, and when it is determined that the partial image that the presenter wants to pay attention based on the gaze position is not focused A guide image for guiding the second user's line of sight to the partial image is displayed.
[実施の形態1]
図1は、実施の形態1に係るプレゼンテーションシステムの構成を概略的に示す図である。プレゼンテーションシステムは、「表示システム」の一実施例である。図1を参照して、プレゼンテーションシステムは、主に、発表者により使用される発表側端末200および参加者により操作される1または複数の参加側端末300を備える。発表側端末200と各参加側端末300は、ネットワークNTを介して相互に通信する。ネットワークNTは、有線または無線の各種の通信回線を含み得る。実施の形態1では、発表側端末200により表示される画像と、参加側端末300により表示される画像とは同一内容を示す。
[Embodiment 1]
FIG. 1 is a diagram schematically showing a configuration of a presentation system according to the first embodiment. The presentation system is an example of a “display system”. Referring to FIG. 1, the presentation system mainly includes a presenting
(利用態様)
図2は、実施の形態1に係るプレゼンテーションシステムの利用態様の一例を模式的に示す図である。図2を参照して、発表者は、発表側端末200により表示領域Sに画像を表示する。発表側端末200は、表示領域Sに表示される画像のデータを、ネットワークNTまたは外部ネットワークを介して、参加側端末300のそれぞれに送信可能である。参加側端末300は、発表側端末200から受信するデータに従いディスプレイ36に画像を表示する。したがって、発表者と参加者は、同時に同じ画像を閲覧することができる。
(Usage mode)
FIG. 2 is a diagram schematically illustrating an example of a usage mode of the presentation system according to the first embodiment. With reference to FIG. 2, the presenter displays an image in the display area S by the
(発表者の注視位置と部分画像)
発表者は、表示領域Sに表示されている画像において部分画像Cを指示する。部分画像Cは、たとえば発表者が参加者に注目してもらいたい情報を示す。実施の形態1では、部分画像Cは、発表者の注視位置GPを中心とした半径Rの円内の画像として規定するが、規定方法はこれに限定されない。実施の形態1では、注視位置GPは、発表者の表示領域Sに向けられた視線に基づく位置、指示体(指、ポインタ等)が指し示す位置、後述するように発話の音声が指示する情報が表示される位置を含み得るが、これらに限定されない。
(Presenter's gaze position and partial image)
The presenter instructs the partial image C in the image displayed in the display area S. The partial image C indicates information that the presenter wants the participant to pay attention to, for example. In the first embodiment, the partial image C is defined as an image within a circle having a radius R centered on the gaze position GP of the presenter, but the defining method is not limited to this. In the first embodiment, the gaze position GP includes the position based on the line of sight directed toward the display area S of the presenter, the position indicated by the indicator (finger, pointer, etc.), and information indicated by the voice of the utterance as will be described later. The displayed position can be included, but is not limited thereto.
発表者の視線により注視されることにより、または指示体を用いることにより注視位置GPが検出される場合は、発表側端末200に接続可能なカメラ201(後述する)による撮像画像に基づき、表示領域Sにおける注視位置GPが検出される。カメラ201は、表示領域に向けられた発表者を(主に、顔部分)を撮影可能なように配置されている。
When the gaze position GP is detected by gaze with the gaze of the presenter or by using an indicator, the display area is based on the image captured by the camera 201 (described later) connectable to the presentation side terminal 200 A gaze position GP in S is detected. The
また、発表者が発話する音声により注視位置GPが検出される場合は、音声を用いたマッチング処理が実施される。マッチング処理では、発表側端末200はマイク24(後述する)により、発表者の発話による音声を収集する。そして、発表側端末200は、音声をテキストデータに変換し、変換後のテキストデータ(文字列等)を用いたマッチング処理を実施する。例えば、発表側端末200は、変換後のテキストデータに基づき、表示領域Sに表示中の画像が表す文字列等の情報を検索し、検索の結果に基づき、合致する文字列を抽出し、抽出された文字列の表示位置を注視位置GPと特定(検出)する。
Further, when the gaze position GP is detected by the voice uttered by the presenter, the matching process using the voice is performed. In the matching process, the presentation-
発表側端末200は、部分画像Cの情報を参加側端末300に送信する。参加側端末300は、発表側端末200から受信する情報に基づき、ディスプレイ36の表示中の画像において、部分画像に視線を誘導するための誘導画像R1(図3参照)を表示する。
The
(参加者の注視位置と誘導画像)
図3は、実施の形態1に係る誘導画像R1の表示例を示す図である。図3を参照して、誘導画像R1は、ディスプレイ36の画像を閲覧する参加者の視線(より特定的には、参加者の注視位置C1)を部分画像C2(部分画像Cに対応)に誘導する(注目させる)ために表示される画像である。誘導画像R1の種類としては、例えば、注視位置C1から部分画像C2の方向に向けられた矢印の画像、または部分画像C2の方向へ移動するカーソルの画像、または部分画像C2を強調する画像、または部分画像C2において表される情報(文字列等)を、部分画像C2の付近でポップアップ表示される画像等を含む。なお、誘導画像R1は、表示された場合に参加者の視線を誘導可能な画像であればよく、種類はこれらに限定されない。
(Participant gaze position and guidance image)
FIG. 3 is a diagram illustrating a display example of the guide image R1 according to the first embodiment. Referring to FIG. 3, guide image R1 guides a participant's line of sight (more specifically, a participant's gaze position C1) viewing the image on
実施の形態1では、発表者が閲覧する画像の表示領域(図2では、表示領域Sに相当)は、発表側端末200が備えるディスプレイの画面、または発表側端末200に接続されたプロジェクター202(後述する)によって画像が投影される投影面203(後述する)などを含み得る。また、参加者が閲覧する画像の表示領域は、図2のディスプレイ36の画面、または参加側端末300が接続可能なプロジェクター38B(後述する)によって画像が投影される投影面38C(後述する)などを含み得る。
In the first embodiment, the display area of the image viewed by the presenter (corresponding to the display area S in FIG. 2) is the display screen of the presenting
実施の形態1では、誘導画像R1の上述の種類は、画像の表示領域のサイズに基づき、変更してもよい。例えば、プロジェクター38Bのような大画面ではなく、パーソナルコンピュータ等のディスプレイ36のような比較的小さい画面では、誘導画像R1は、ポップアップ画像であってもよい。
In the first embodiment, the above-described type of the guide image R1 may be changed based on the size of the display area of the image. For example, the guide image R1 may be a pop-up image on a relatively small screen such as the
(参加側端末300の構成)
図4は、実施の形態1に係る参加側端末300のハードウェア構成の具体例を示す図である。図4を参照して、参加側端末300は、全体を制御する制御部に相当するCPU(Central Processing Unit)30、CPU30で実行されるプログラムおよびデータを記憶するためのROM(Read Only Memory)31およびRAM(Random Access Memory)32、プロジェクターI/F(インターフェイス略)33、参加側端末300に対するユーザー(参加者)の指示を受付けるための操作部34、ネットワークNTを介した通信を制御する通信コントローラ35、ディスプレイ36を制御する表示制御部38を含む。さらに、参加側端末300は、カメラ37およびメモリインターフェイス39を含む。
(Configuration of participating terminal 300)
FIG. 4 is a diagram illustrating a specific example of the hardware configuration of the participating
プロジェクターI/F33は、投影面33Bに画像を投影するプロジェクター33Aを接続する。通信コントローラ35は、モデム回路および増幅回路などを含む。
The projector I /
メモリインターフェイス39は、記憶媒体の一例であるメモリカード40が着脱自在に装着される。メモリインターフェイス39は、CPU30により制御されて、メモリカード40にデータを書込む回路、またはメモリカード40からデータを読出す回路を含む。
The
(発表側端末200の構成)
図5は、実施の形態1に係る発表側端末200のハードウェア構成の具体例を示す図である。図5を参照して、発表側端末200は、全体を制御する制御部に相当するCPU(Central Processing Unit)20、CPU20により実行されるプログラムおよびデータを記憶するためのROM(Read Only Memory)21およびRAM(Random Access Memory)22、ディスプレイ23、ユーザーが発表側端末200に情報を入力するために操作する操作パネル25、ディスプレイ23を制御する表示制御部26、ネットワークNTを介した通信を実施するための通信コントローラ27、ならびにメモリインターフェイス28を備える。また、発表側端末200は、マイク24、カメラ201、投影面203に画像を投影するプロジェクター202を接続するプロジェクターI/F(インターフェイスの略)26Aを備える。
(Configuration of the presentation terminal 200)
FIG. 5 is a diagram illustrating a specific example of the hardware configuration of the presenting
ディスプレイ23と操作パネル25は、一体的に構成されたタッチパネルとして提供されてもよい。通信コントローラ27は、通信するためのモデム回路、増幅回路などを含む。表示制御部26は、表示データに基づきディスプレイ23を駆動する駆動回路を含む。
The
メモリインターフェイス28は、記憶媒体の一例であるメモリカード29が着脱自在に装着される。メモリインターフェイス28は、CPU20により制御されて、メモリカード29にデータを書込む回路、またはメモリカード29からデータを読出す回路を含む。
A
(発表側端末200の機能構成)
図6は、実施の形態1に係る発表側端末200が有する機能の構成を模式的に示す図である。図6に示され各部は、CPU20が実行するプログラムまたはプログラムと回路の組合せにより実現される。
(Functional configuration of the presentation terminal 200)
FIG. 6 is a diagram schematically illustrating a functional configuration of the presenting
図6を参照して、CPU20は、通信コントローラ27を介した参加側端末300との通信処理を実施する通信処理部41および画像の表示処理部50を備える。
Referring to FIG. 6, the
通信処理部41は、参加側端末300から参加者の注視位置の情報を受信する。具体的には、参加側端末300は、表示領域(ディスプレイ36または投影面33B)に画像を表示中に、参加者の注視位置を判定し、判定された注視位置を示す情報を発表側端末200に送信する。
The communication processing unit 41 receives information on the gaze position of the participant from the
表示処理部50は、視線検出部51、位置判定部52、決定部53、注目判断部54、生成部55および経路取得部56を備える。
The
視線検出部51は、発表者の視線を検出する。位置判定部52は、発表者が注視する注視位置GPを判定する。位置判定部52は、視線情報から注視位置GPを判定する機能と、上述のマッチング処理により注視位置GPを判定するマッチング部52Aを含む。
The line-of-sight detection unit 51 detects the line of sight of the presenter. The
決定部53は、表示領域(ディスプレイ23または投影面203)に画像を表示する場合に、判定された注視位置GPに基づき、表示画像における部分画像Cを決定し、部分画像Cを示す情報を出力する。
The
注目判断部54は、通信処理部41によって受信された参加者の注視位置の情報に基づき、参加者が、決定部53により決定された部分画像Cに注目しているか否かを判断する。
The
生成部55は、注目判断部54が参加者は部分画像Cに注目していないと判断した場合に、ディスプレイ36または投影面33Bの表示領域において部分画像Cに視線を誘導するための誘導画像R1(図3参照)を表示するための画像データを生成する。生成された画像データは、通信処理部41を介して参加側端末300に送信される。
When the
参加側端末300は、発表側端末200から受信した画像データを表示制御部38またはプロジェクターI/F33に出力する。表示制御部38は画像データに従いディスプレイ36を駆動する。これにより、ディスプレイ36で表示中の画像における部分画像C2(部分画像Cに対応)に視線を誘導するための誘導画像R1が表示される。また、同様に、プロジェクターI/F33は画像データに従いプロジェクター33Aを制御する。これにより、投影面33Bで表示中の画像において、部分画像C2に視線を誘導するための誘導画像R1が表示される。
The
経路取得部56は、参加側端末300から受信する参加者の注視位置の情報を、予め定められた周期でサンプリングすることにより、時系列に並んだ位置情報の履歴からなる移動経路を検出する。
The
(参加側端末300の機能構成)
図7は、実施の形態1に係る参加側端末300が有する機能の構成を模式的に示す図である。図7に示された各部は、CPU30が実行するプログラムまたはプログラムと回路の組合せにより実現される。
(Functional configuration of participating terminal 300)
FIG. 7 is a diagram schematically illustrating a functional configuration of the participating
図7を参照して、CPU30は、画像の表示処理部60および通信処理部70を備える。表示処理部60は、情報取得部63を含む。情報取得部63は、視線検出部61および位置判定部62を有する。表示処理部60は、表示用の画像データを生成し、表示制御部38またはプロジェクターI/F33に出力する。通信処理部70は、通信コントローラ35を介した発表側端末200との通信処理を実施する。
Referring to FIG. 7,
情報取得部63は、ディスプレイ36または投影面33Bの表示領域(発表側端末200の表示領域とは異なる表示領域)に画像が表示される場合に、表示される画像における参加者の注視位置の情報を取得する。具体的には、視線検出部61は、参加者の視線情報を検出し、位置判定部62は、視線情報に基づき、表示中の画像における注視位置を判定する。
The
通信処理部70は、参加者の注視位置の情報を発表側端末200に送信するための送信用データを生成し、生成されたデータを通信コントローラ27に出力する。これにより、参加側端末300は、ディスプレイ36または投影面33Bに表示される画像において、参加者の注視位置を示す情報を発表側端末200に送信することができる。
The
(視線と注視位置の検出)
図8は、実施の形態1に係る視線と注視位置を説明する図である。実施の形態1では、発表者が、表示領域S(ディスプレイ23または投影面203)に顔を向けている場合に、発表者の顔がカメラ201によって撮像される。同様に、参加者が、表示領域S(ディスプレイ36または投影面33B)に顔を向けている場合に、参加者の顔はカメラ37によって撮像される。まず、発表者の視線と注視位置を検出する方法を説明する。カメラ201および37は、赤外線カメラを含む。
(Gaze and gaze position detection)
FIG. 8 is a diagram illustrating the line of sight and the gaze position according to the first embodiment. In the first embodiment, when the presenter faces the display area S (the
視線検出部51は、カメラ201からの出力(画像信号)を、例えば、赤外線カメラの出力を角膜反射法に従い処理することにより、発表者の視線方向を検出する。角膜反射法は周知の技術であるので、ここでは説明を繰返さない。また、視線検出部51は、カメラ201の出力に含まれるステレオ画像信号から、視点の視差を検出し、検出した視差から視点位置E、すなわち3次元位置(X,Y,Zの3次元座標)を算出する。
The line-of-sight detection unit 51 detects the line-of-sight direction of the presenter by processing the output (image signal) from the
位置判定部52は、視線方向(β度)と、視点位置Eとから仮想平面(表示領域Sに相当)上の注視位置GPを判定する。注視位置GPは、視点位置Eから視線方向に直線を引いたときに表示領域Sと交わる点に対応する。
The
決定部53は、画像において、注視位置GPを中心点とした半径Rの円内に含まれる画像を部分画像Cと決定し、判定した部分画像Cの情報を出力する。具体的には、決定部53は、表示される画像のビットマップデータにおいて、予め定められた演算式に従い、注視位置GPをビットマップ上の位置(座標位置)に換算する。決定部53は、算出されたビットマップ上における注視位置GPを中心点とした半径Rの円部分のビットマップ上の位置(座標位置)を判定し、判定された半径Rの円内のビットマップ上の位置を示す情報を、部分画像Cの情報として出力する。なお、部分画像Cの半径Rは可変であってよい。
The
参加側端末300の参加者の注視位置の情報についても、視線検出部61および位置判定部62により図8と同様に、画像のビットマップデータ上の位置(座標位置)として取得することができるので、ここでは説明を繰返さない。参加側端末300は、判定される参加者の注視位置の情報を、発表側端末200に送信する。
The information on the gaze position of the participant of the
(発表側端末200の処理フロー)
図9は、実施の形態1に係る発表側端末200の表示制御方法の処理フローチャートである。フローチャートに従うプログラムは、ROM21等に格納される。CPU20が、プログラムを読出し、実行することにより処理が実現される。なお、ここでは説明を簡単にするために、発表側端末200の表示領域に表示される画像のサイズ(倍率)と、参加側端末300の表示領域に表示される画像のサイズ(倍率)は等しいと想定する。
(Processing flow of the presentation side terminal 200)
FIG. 9 is a process flowchart of the display control method of presentation-
まず、発表側端末200により表示領域(ディスプレイ23または投影面203)に画像が表示されて、発表が開始される。この画像は、参加側端末300の表示領域(ディスプレイ36または33B)にも表示される。発表側端末200では、発表中は、視線検出部51、位置判定部52および決定部53により、発表者の注視位置に基づく部分画像Cの情報が定期的に検出される。
First, an image is displayed on the display area (
まず、通信処理部41は、参加側端末300から参加者の注視位置の情報を受信し、表示処理部50に出力する(ステップS3)。
First, the communication processing unit 41 receives information on the gaze position of the participant from the participating
注目判断部54は、参加側端末300から受信する参加者の注視位置の情報と、決定部53により決定された部分画像Cのエリアの情報とを比較し、比較の結果に基づき、参加者の注視位置が部分画像Cから所定距離外れて(離れて)いるか否かを判断する(ステップS5)。注目判断部54が、所定距離外れていないと判断した場合は(ステップS5でNO)、ステップS3に戻る。このように、実施の形態1では、部分画像Cから所定距離の範囲内を、部分画像Cに対応の部分領域ともいう。この所定距離は、より特定的には注視位置GPからの距離(所定距離>R)でもある。
The
なお、部分画像Cに対応の部分領域は、部分画像C自体が占有する領域であってもよい。その場合には、上記の所定距離は、半径Rに等しくなる。 The partial area corresponding to the partial image C may be an area occupied by the partial image C itself. In that case, the predetermined distance is equal to the radius R.
一方、注目判断部54が、参加者の注視位置が部分画像Cに対応の部分領域にない(所定距離外れている)と判断した場合は(ステップS5でYES)、注目判断部54は、所定距離外れていると継続して判断された時間が所定時間内であるか否かを判断する(ステップS7)。この継続時間が所定時間内であると判断された時は(ステップS7でYES)、ステップS3に戻る。
On the other hand, when the
一方、上記の継続時間が、所定時間を越えていると判断された時は(ステップS7でNO)、位置判定部52は、カメラ201の撮像画像を用いた画像マッチング処理等により、発表者がポインタ等の指示体で注視位置GPを指定しているかを判定する(ステップS9)。ポインタ等の指示体で注視位置GPが指定されていないと判定すると(ステップS9でNO)、CPU20は、カメラ201の撮像画像を用いた画像マッチング処理等により、発表者が表示画像を見ているか否かを判断する(ステップS11)。例えば、カメラ201の撮像画像の発表者の画像から、発表者が表示画像を見ている姿勢であるか否かを、画像マッチング処理により判断することができる。
On the other hand, when it is determined that the above duration exceeds the predetermined time (NO in step S7), the
ポインタ等の指示体で注視位置GPが指定されている、または発表者が表示画像を見ていると判断されると(ステップS9でYES、またはステップS11でYES)、位置判定部52により判定された発表者の注視位置GPに基づき、部分画像Cの情報が決定する(ステップS15)。
If it is determined that the gaze position GP is designated by an indicator such as a pointer or that the presenter is looking at the display image (YES in step S9 or YES in step S11), the
また、発表者が表示画像を見ていないと判断されると(ステップS11でNO)、マッチング部52Aは、発表者の発話による音声を用いたマッチング処理を実施して、発表者の注視位置GPを判定する(ステップS13)。決定部53は、マッチング処理により判定された発表者の注視位置GPに基づき、部分画像Cの情報を決定する(ステップS15)。
If it is determined that the presenter is not viewing the display image (NO in step S11), the
生成部55は、発表者が注視する部分画像Cに参加者の視線を誘導するための誘導画像R1を表示するための画像データを生成し、通信処理部41を介して参加側端末300に送信する(ステップS17)。このとき、発表側端末200の表示領域において、部分画像Cに視線を誘導するための誘導画像R1が表示されてもよい。
The
通信処理部41は、参加側端末300から注視位置の情報を受信する(ステップS18)。注目判断部54は、受信された参加者の注視位置の情報と、部分画像Cのエリアの情報とを比較し、参加者の注視位置が部分画像Cに対応の部分領域内にあるか否かを判断する(ステップS9)。
The communication processing unit 41 receives gaze position information from the participating terminal 300 (step S18). The
注目判断部54が、参加者の注視位置は、部分画像Cに対応の部分領域内にないと判断すると(ステップS19でNO)、ステップS1に戻る。一方、注目判断部54が、参加者の注視位置は、部分画像Cに対応の部分領域内に在ると判断すると(ステップS19でYES)、CPU20は、誘導画像R1を非表示(誘導画像R1の消去)とするための非表示指令、通信処理部41を介して、参加側端末300に送信する(ステップS21)。
If the
CPU20は、操作パネル25からの出力に基づき、発表が終了したか否かを判断する(ステップS23)。CPU20は、発表終了ではないと判断すると(ステップS23でNO)、ステップS1に戻るが、発表終了と判断すると(ステップS23でYES)、一連の処理は終了する。
The
図9の処理によれば、発表側端末200は、参加側端末300から受信する参加者の注視位置に基づき、発表者が指示する部分画像Cに対応の部分領域内になく、部分画像Cへの注目がなされていないと判断するときは、参加者の視線を部分画像Cに誘導するための誘導画像R1を表示するよう参加側端末300を制御する。これにより、発表者は、発表者の意図する部分画像C(C2)の情報に、参加者の注目を促すことが可能となる。
According to the processing in FIG. 9, the
(参加側端末300の処理フロー)
図10は、実施の形態1に係る参加側端末300の表示制御方法の処理フローチャートである。フローチャートに従うプログラムは、ROM31等に格納される。CPU30が、プログラムを読出し、実行することにより処理が実現される。
(Processing flow of participating terminal 300)
FIG. 10 is a process flowchart of the display control method of participating terminal 300 according to
表示領域(ディスプレイ36または投影面33B)に画像が表示されている場合において、視線検出部61および位置判定部62により、参加者の注視位置の情報が取得される(ステップS31)。通信処理部70は、取得された注視位置の情報を発表側端末200に送信する(ステップS33)。
When an image is displayed on the display area (
通信処理部70は、発表側端末200から誘導画像R1の情報を受信するか否かを判断する(ステップS35)。誘導画像R1の情報が受信されると(ステップS35でYES)、表示処理部64は、誘導画像R1の表示処理を実施する(ステップS37)。具体的には、表示処理部64は受信した誘導画像R1を表示領域の画像に重畳して表示するための画像データを生成し、表示制御部38またはプロジェクターI/F33に出力する。これにより、表示領域(ディスプレイ36または投影面33B)の画像に、発表者が注視する部分画像Cに対応した部分画像(図3の部分画像C2など)に視線を誘導するための誘導画像R1が表示される。
The
通信処理部70は、発表側端末200から誘導画像R1の情報を受信していないと判断すると(ステップS35でNO)、発表側端末200から非表示指令を受信するか否かを判断する(ステップS39)。非表示指令を受信しないときは(ステップS39でNO)、ステップS45に移行する。
If the
非表示指令を受信したときは(ステップS39でYES)、表示処理部64は誘導画像R1を表示中であるか否かを判断する(ステップS41)。誘導画像R1を表示中と判断したとき(ステップS41でYES)、表示処理部64は、誘導画像R1を消去するための画像データを生成し、表示制御部38またはプロジェクターI/F33に出力する。これにより、表示領域(ディスプレイ36または投影面33B)の画像から誘導画像R1が消去される(ステップS43)。その後、ステップS45に移る。
When the non-display command is received (YES in step S39), the display processing unit 64 determines whether or not the guidance image R1 is being displayed (step S41). When it is determined that the guide image R1 is being displayed (YES in step S41), the display processing unit 64 generates image data for deleting the guide image R1 and outputs the image data to the display control unit 38 or the projector I /
ステップS45では、CPU30は、操作部34からの出力に基づき、処理を終了するか否かを判断する(ステップS45)。終了ではないと判断すると(ステップS45でNO)、ステップS31に戻る。処理終了と判断されると(ステップS45でYES)、一連の処理は終了する。
In step S45, the
図10によれば、視線誘導のための誘導画像R1が表示されることで、参加者は、発表者の意図する部分画像C(C2)に視線が誘導されて、部分画像C(C2)に注目することが可能となる。 According to FIG. 10, by displaying the guide image R1 for guiding the line of sight, the participant is guided to the partial image C (C2) intended by the presenter, and the partial image C (C2). It becomes possible to pay attention.
なお、実施の形態1では、発表者の発表側端末200により表示される画像と、参加者の参加側端末300により表示される画像のサイズは同じであるとしたが、異なっていてもよい。例えば、発表者の画像の表示領域(例えば、投影面203)は、参加者の画像の表示領域(例えば、ディスプレイ36)よりも大きいとしてもよい。その場合に、発表側端末200の表示画像における部分画像Cの情報は、参加側端末300の表示画像のサイズ(拡大率/縮小率)に整合するように変換処理が実施される。
In the first embodiment, the size of the image displayed on the
[実施の形態2]
実施の形態2では、発表者による発表開始からの参加者の注視位置の移動経路(蓄積された注視位置の移動履歴の情報)に基づき、誘導画像R1の表示/非表示を切り替える。図11、図12および図13は、実施の形態2に係る注視位置の移動経路を説明する図である。
[Embodiment 2]
In the second embodiment, display / non-display of the guidance image R1 is switched based on the movement path of the gaze position of the participant from the start of the presentation by the presenter (accumulated information of movement history of the gaze position). FIGS. 11, 12, and 13 are diagrams for explaining a movement path of the gaze position according to the second embodiment.
経路取得部56は、参加者の注視位置の情報から、表示画像上での注視位置の移動経路を取得する。表示処理部50は、取得される移動経路TRを、予め定められた移動経路のパターンと照合し、照合結果に基づき、参加者が部分画像C(C2)を見失っている移動経路のパターンであると判断したとき(図11参照)は、誘導画像R1を表示する。図11では、参加者は、表示画像において部分画像C(C2)を見失っているパターンを示す。この場合は、移動経路は部分画像C(C2)に対応する部分領域を通過することはないために、誘導画像R1を表示する。
The
図12は、先読みしている場合には、誘導画像R1を非表示とするケースを示す。図12では、参加者の2つ注視位置C1が示される。表示処理部50は、下段の注視位置C1の移動経路TRを分析し、移動経路TRの履歴が、注視位置C1は部分画像C(C2)を通過している(先読みしている)ことを示すと判断した場合には(図13の移動経路TRを参照)、誘導画像R1を表示しない(非表示とする)。
FIG. 12 shows a case where the guide image R1 is not displayed when prefetching is performed. In FIG. 12, two gaze positions C1 of the participants are shown. The
一方、上段の注視位置C1の移動経路TRを分析し、移動経路TRの履歴が、注視位置C1は部分画像C(C2)を未だ通過していなことを示すと判断した場合には、誘導画像R1を表示する。 On the other hand, when the movement path TR of the upper gaze position C1 is analyzed and it is determined that the history of the movement path TR indicates that the gaze position C1 has not yet passed through the partial image C (C2), the guidance image R1 is displayed.
[実施の形態3]
実施の形態3は、発表者が、発表側端末200による画像表示により発表されるべき資料が、電子ファイルで参加者に配布されており、参加者は、発表前に自由に資料を閲覧できるケースを説明する。図14は、実施の形態3に係る注視位置の移動経路を説明するための図である。
[Embodiment 3]
In the third embodiment, the presenter distributes materials to be presented to the participants in an electronic file by displaying images on the
参加側端末300では、参加者が、現在の発表箇所以外のページ(前後問わず)を閲覧している場合には、表示処理部60は、各ページの画像毎に注視位置C1の移動経路を取得する。発表者の発表側端末200においてあるページの画像が表示されたときは、表示処理部60は、当該ページの移動経路TRの情報を発表側端末200に送信する。発表側端末200の表示処理部50は、受信した移動経路TRを分析して、部分画像Cを注視した履歴があると判断したときは、誘導画像R1の表示を中止(非表示)するとしてもよい。
In the
[実施の形態4]
上記の各実施の形態では、発表者と参加者は異なる表示領域を閲覧するとしたが、両者は同じ表示領域を見るとしてもよい。例えば、発表者が、大型スクリーン(プロジェクターの投影面など)で画像を表示して発表する場合に、参加者が参加側端末300を介さずに当該大型スクリーンの画像を見るケースであっても各実施の形態と同様の効果を得ることができる。
[Embodiment 4]
In each of the embodiments described above, the presenter and the participant browse different display areas, but both may view the same display area. For example, when the presenter displays and presents an image on a large screen (projection surface of a projector, etc.), each participant may view the image on the large screen without going through the
図15は、参加側端末300の他の例を示す図である。参加側端末300は、図15に示すようにウェアラブル端末であってもよい。
FIG. 15 is a diagram illustrating another example of the participating
[実施の形態5]
実施の形態5では、発表者の成果を確認する方法が示される。実施の形態5では、発表中に、経路取得部56のより取得された参加者の注視位置の移動経路、および誘導画像R1の表示履歴(表示回数、表示された部分画像の識別子など)の情報を、画像毎にメモリに格納する。発表者は、発表終了後に、格納された画像毎の移動経路および誘導画像R1の表示履歴を、ディスプレイ23に表示して確認する。これにより、参加者の発表内容に対する注目の程度を、定量的に把握することが可能となる。
[Embodiment 5]
In the fifth embodiment, a method for confirming the presenter's result is shown. In the fifth embodiment, during the presentation, information on the movement route of the gaze position of the participant acquired by the
[実施の形態6]
実施の形態6では、各実施の形態の上述の処理を発表側端末200または参加側端末300に実行させるためのプログラムが提供される。このようなプログラムは、発表側端末200または参加側端末300のコンピュータに付属するフレキシブルディスク、CD−ROM(Compact Disk-Read Only Memory)、ROM、RAMおよびメモリカードなどのコンピュータ読み取り可能な記録媒体にて記録させて、プログラム製品として提供することもできる。あるいは、コンピュータに内蔵するハードディスクなどの記録媒体にて記録させて、プログラムを提供することもできる。また、ネットワークNTを介したダウンロードによって、プログラムを提供することもできる。プログラムは、CPU30(CPU20)などの1つ以上のプロセッサにより、またはプロセッサとASIC(Application Specific Integrated Circuit:特定用途向け集積回路)などの回路との組合わせにより実行される。
[Embodiment 6]
In the sixth embodiment, a program for causing the
なお、プログラムは、コンピュータのOS(Operating System)の一部として提供されるプログラムモジュールのうち、必要なモジュールを所定の配列で所定のタイミングで呼出して処理を実行させるものであってもよい。その場合、プログラム自体には上記モジュールが含まれずOSと協働して処理が実行される。このようなモジュールを含まないプログラムも、実施の形態6のプログラムに含まれ得る。 Note that the program may be a program module that is provided as part of an OS (Operating System) of a computer and that performs necessary processing by calling necessary modules in a predetermined arrangement at a predetermined timing. In that case, the program itself does not include the module, and the process is executed in cooperation with the OS. A program that does not include such a module can also be included in the program of the sixth embodiment.
提供されるプログラム製品は、ハードディスクなどのプログラム格納部にインストールされて実行される。なお、プログラム製品は、プログラム自体と、プログラムが記録された記録媒体とを含む。 The provided program product is installed in a program storage unit such as a hard disk and executed. The program product includes the program itself and a recording medium on which the program is recorded.
(実施の形態の効果)
上記の各実施の形態によれば、発表者が意図する部分画像に注目がなされていない場合には、参加者の視線を当該部分画像に誘導するための誘導画像R1が表示される。これにより、参加者に対して発表者内容を的確に伝えることが可能となる。
(Effect of embodiment)
According to each of the above embodiments, when attention is not paid to the partial image intended by the presenter, the guide image R1 for guiding the participant's line of sight to the partial image is displayed. As a result, it is possible to accurately convey the presenter contents to the participants.
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
23,36 ディスプレイ、24 マイク、25 操作パネル、26,38 表示制御部、27,35 通信コントローラ、28,39 メモリインターフェイス、29,40 メモリカード、33A,202 プロジェクター、33B,203 投影面、34 操作部、37,201 カメラ、41,70 通信処理部、50,60,64 表示処理部、51,61 視線検出部、52,62 位置判定部、52A マッチング部、53 決定部、54 注目判断部、55 生成部、56 経路取得部、63 情報取得部、200 発表側端末、300 参加側端末、C,C2 部分画像、C1,GP 注視位置、E 視点位置、NT ネットワーク、R 半径、R1 誘導画像、S 表示領域。 23, 36 Display, 24 microphone, 25 Operation panel, 26, 38 Display controller, 27, 35 Communication controller, 28, 39 Memory interface, 29, 40 Memory card, 33A, 202 Projector, 33B, 203 Projection plane, 34 operation Unit, 37, 201 camera, 41, 70 communication processing unit, 50, 60, 64 display processing unit, 51, 61 gaze detection unit, 52, 62 position determination unit, 52A matching unit, 53 determination unit, 54 attention determination unit, 55 generation unit, 56 route acquisition unit, 63 information acquisition unit, 200 presentation side terminal, 300 participation side terminal, C, C2 partial image, C1, GP gaze position, E viewpoint position, NT network, R radius, R1 guidance image, S Display area.
Claims (12)
前記画像における第2ユーザーが指定する部分画像の情報を取得する情報取得部と、
前記表示領域に前記画像を表示中において判定される前記注視位置と前記部分画像の領域の情報とに基づき、前記部分画像が前記第1ユーザーにより注目されているか否かを判断する判断部と、を備え、
前記部分画像は注目されていないと判断された場合に、前記表示領域において前記部分画像に視線を誘導するための誘導画像を表示する、表示システム。 A determination unit that determines a gaze position at which the first user gazes in an image displayed in the display area;
An information acquisition unit for acquiring information of a partial image designated by the second user in the image;
A determination unit that determines whether or not the partial image is attracted attention by the first user based on the gaze position determined during display of the image in the display region and information on the region of the partial image; With
A display system that displays a guide image for guiding a line of sight to the partial image in the display area when it is determined that the partial image is not focused.
前記判定部は、前記第1表示領域における第1ユーザーが注視する注視位置を判定し、
前記情報取得部は、前記第2表示領域に表示される画像における第2ユーザーが指定する部分画像の情報を取得し、
前記判断部は、前記第1表示領域に前記画像を表示中において判定される前記注視位置と前記部分画像の領域の情報とに基づき、前記部分画像が前記第1ユーザーにより注目されているか否かを判断し、
前記表示システムは、
前記部分画像は注目されていないと判断された場合に、前記第1表示領域において前記誘導画像を表示する、請求項1に記載の表示システム。 The display area includes a first display area for displaying the image for the first user, and a second display area for displaying the image for the second user,
The determination unit determines a gaze position at which the first user gazes in the first display area,
The information acquisition unit acquires partial image information specified by a second user in an image displayed in the second display area,
The determination unit determines whether or not the partial image is noticed by the first user based on the gaze position determined during display of the image in the first display area and information on the partial image area. Judging
The display system includes:
The display system according to claim 1, wherein the guide image is displayed in the first display area when it is determined that the partial image is not focused.
前記表示領域の画像が示す情報のうち、前記第2ユーザーが発話する音声にマッチングする部分情報を検出するマッチング部と、
前記第2ユーザーの視線情報を取得する視線取得部と、を有し、
前記第2ユーザーが指定する部分画像は、取得される視線情報に基づく前記表示領域における注視位置に対応する部分画像、またはポインタ画像が重畳表示される部分画像、または前記音声とマッチングする部分情報を表示する部分画像を含む、請求項2または3に記載の表示システム。 The information acquisition unit
Of the information indicated by the image of the display area, a matching unit that detects partial information that matches the voice spoken by the second user;
A line-of-sight acquisition unit that acquires line-of-sight information of the second user,
The partial image designated by the second user is a partial image corresponding to the gaze position in the display area based on the acquired line-of-sight information, a partial image on which a pointer image is superimposed and displayed, or partial information that matches the sound. The display system of Claim 2 or 3 containing the partial image to display.
前記判定部は、検出された前記視線情報から前記注視位置を判定する、請求項1から4のいずれか1項に記載の表示システム。 A line-of-sight detection unit that detects line-of-sight information indicating the line of sight directed to the display area of the first user,
The display system according to claim 1, wherein the determination unit determines the gaze position from the detected line-of-sight information.
前記注視位置と前記部分画像の領域との距離または当該領域に前記注視位置が存在した時間の少なくとも一方に基づき、前記注目がなされているか否かを判断する、請求項1から5のいずれか1項に記載の表示システム。 The determination unit
6. The apparatus according to claim 1, wherein whether or not the attention is made is determined based on at least one of a distance between the gaze position and the area of the partial image or a time when the gaze position exists in the area. The display system according to item.
前記移動経路が、前記注視位置は前記画像の前記部分画像の領域を通過した履歴を示す場合は、前記誘導画像を非表示にする、請求項1から6のいずれか1項に記載の表示システム。 A route acquisition unit that acquires a history of a movement route of the gaze position in the image;
The display system according to any one of claims 1 to 6, wherein the guide image is hidden when the movement path indicates a history in which the gaze position has passed the region of the partial image of the image. .
前記表示制御方法は、
表示領域に表示される画像における第1ユーザーが注視する注視位置を取得するステップと、
前記画像における第2ユーザーが指定する部分画像の情報を取得するステップと、
前記表示領域に前記画像を表示中において取得される前記注視位置と前記部分画像の領域の情報とに基づき、前記部分画像が前記第1ユーザーにより注目されているか否かを判断するステップと、
前記部分画像は注目されていないと判断された場合に、前記表示領域において前記部分画像に視線を誘導するための画像を表示するステップと、を備える、プログラム。 A program for causing a computer to execute a display control method,
The display control method includes:
Obtaining a gaze position at which the first user gazes in an image displayed in the display area;
Obtaining information of a partial image designated by a second user in the image;
Determining whether or not the partial image is being noticed by the first user based on the gaze position acquired during display of the image in the display region and information on the region of the partial image;
And a step of displaying an image for guiding a line of sight to the partial image in the display area when it is determined that the partial image is not focused.
前記画像における第2ユーザーが指定する部分画像の情報を取得するステップと、
前記表示領域に前記画像を表示中において取得される前記注視位置と前記部分画像の領域の情報とに基づき、前記部分画像が前記第1ユーザーにより注目されているか否かを判断するステップと、
前記部分画像は注目されていないと判断された場合に、前記表示領域において前記部分画像に視線を誘導するための画像を表示するステップと、を備える、表示制御方法。
Obtaining a gaze position at which the first user gazes in an image displayed in the display area;
Obtaining information of a partial image designated by a second user in the image;
Determining whether or not the partial image is being noticed by the first user based on the gaze position acquired during display of the image in the display region and information on the region of the partial image;
And a step of displaying an image for inducing a line of sight to the partial image in the display area when it is determined that the partial image is not focused.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016220384A JP2018077417A (en) | 2016-11-11 | 2016-11-11 | Display system, program, and display control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016220384A JP2018077417A (en) | 2016-11-11 | 2016-11-11 | Display system, program, and display control method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018077417A true JP2018077417A (en) | 2018-05-17 |
Family
ID=62149107
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016220384A Pending JP2018077417A (en) | 2016-11-11 | 2016-11-11 | Display system, program, and display control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018077417A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020154460A (en) * | 2019-03-18 | 2020-09-24 | 株式会社リコー | Communication terminal, image communication system, presentation method and program |
JP2021002114A (en) * | 2019-06-20 | 2021-01-07 | コニカミノルタ株式会社 | Support system, support method, and support program |
WO2023238703A1 (en) * | 2022-06-07 | 2023-12-14 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000184345A (en) * | 1998-12-14 | 2000-06-30 | Nec Corp | Multi-modal communication aid device |
JP2000259535A (en) * | 1999-03-08 | 2000-09-22 | Fuji Xerox Co Ltd | Window display controller |
JP2004220179A (en) * | 2003-01-10 | 2004-08-05 | Toshiba Corp | Image generation device, image generation method, and image generation program |
JP2005208292A (en) * | 2004-01-22 | 2005-08-04 | Canon Inc | Information presenting apparatus with speech recognizing function |
JP2006107281A (en) * | 2004-10-07 | 2006-04-20 | Queen Mary & Westfield College | Communication supporting apparatus |
JP2006251258A (en) * | 2005-03-09 | 2006-09-21 | Fuji Xerox Co Ltd | Presentation system and presentation support method |
JP2012253478A (en) * | 2011-06-01 | 2012-12-20 | Konica Minolta Business Technologies Inc | Conference support system, conference support device, conference support method, and computer program |
JP2015153195A (en) * | 2014-02-14 | 2015-08-24 | オムロン株式会社 | Gesture recognition device and control method therefor |
JP2016103109A (en) * | 2014-11-27 | 2016-06-02 | 富士通株式会社 | Display device, display method and display program |
-
2016
- 2016-11-11 JP JP2016220384A patent/JP2018077417A/en active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000184345A (en) * | 1998-12-14 | 2000-06-30 | Nec Corp | Multi-modal communication aid device |
JP2000259535A (en) * | 1999-03-08 | 2000-09-22 | Fuji Xerox Co Ltd | Window display controller |
JP2004220179A (en) * | 2003-01-10 | 2004-08-05 | Toshiba Corp | Image generation device, image generation method, and image generation program |
JP2005208292A (en) * | 2004-01-22 | 2005-08-04 | Canon Inc | Information presenting apparatus with speech recognizing function |
JP2006107281A (en) * | 2004-10-07 | 2006-04-20 | Queen Mary & Westfield College | Communication supporting apparatus |
JP2006251258A (en) * | 2005-03-09 | 2006-09-21 | Fuji Xerox Co Ltd | Presentation system and presentation support method |
JP2012253478A (en) * | 2011-06-01 | 2012-12-20 | Konica Minolta Business Technologies Inc | Conference support system, conference support device, conference support method, and computer program |
JP2015153195A (en) * | 2014-02-14 | 2015-08-24 | オムロン株式会社 | Gesture recognition device and control method therefor |
JP2016103109A (en) * | 2014-11-27 | 2016-06-02 | 富士通株式会社 | Display device, display method and display program |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020154460A (en) * | 2019-03-18 | 2020-09-24 | 株式会社リコー | Communication terminal, image communication system, presentation method and program |
JP7205323B2 (en) | 2019-03-18 | 2023-01-17 | 株式会社リコー | Communication terminal, image communication system, display method, and program |
JP2021002114A (en) * | 2019-06-20 | 2021-01-07 | コニカミノルタ株式会社 | Support system, support method, and support program |
WO2023238703A1 (en) * | 2022-06-07 | 2023-12-14 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11093045B2 (en) | Systems and methods to augment user interaction with the environment outside of a vehicle | |
CN109844854B (en) | Word Stream Annotation | |
US8700392B1 (en) | Speech-inclusive device interfaces | |
WO2019216419A1 (en) | Program, recording medium, augmented reality presentation device, and augmented reality presentation method | |
EP3258423A1 (en) | Handwriting recognition method and apparatus | |
KR101563312B1 (en) | System for gaze-based providing education content | |
KR20150135847A (en) | Glass type terminal and control method thereof | |
TW201525772A (en) | Display control device, display control method, and program | |
KR20160038736A (en) | Method for providing remark information related to picture and device thereof | |
JPH10301675A (en) | Multimodal interface device and multimodal interface method | |
JP2005124160A (en) | Conference supporting system, information display, program and control method | |
US10514755B2 (en) | Glasses-type terminal and control method therefor | |
WO2012063561A1 (en) | Information notification system, information notification method, information processing device and control method for same, and control program | |
EP3121688A1 (en) | Method and device for displaying image | |
JP2018077417A (en) | Display system, program, and display control method | |
JP2007213282A (en) | Lecturer support device and lecturer support method | |
CN113936699A (en) | Audio processing method, device, equipment and storage medium | |
US8515173B2 (en) | Image processing system, image processing method and computer readable medium | |
Lee et al. | AIGuide: augmented reality hand guidance in a visual prosthetic | |
WO2018056169A1 (en) | Interactive device, processing method, and program | |
US20170220317A1 (en) | Electronic apparatus and control program of electronic apparatus | |
Stearns | HandSight: A Touch-Based Wearable System to Increase Information Accessibility for People with Visual Impairments | |
WO2020158218A1 (en) | Information processing device, information processing method, and program | |
KR101739792B1 (en) | Method and program for transmitting data by mobile device | |
JP2017016484A (en) | Communication system, recording apparatus, terminal device, program, and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190820 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200929 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210330 |