JP2018077417A - Display system, program, and display control method - Google Patents

Display system, program, and display control method Download PDF

Info

Publication number
JP2018077417A
JP2018077417A JP2016220384A JP2016220384A JP2018077417A JP 2018077417 A JP2018077417 A JP 2018077417A JP 2016220384 A JP2016220384 A JP 2016220384A JP 2016220384 A JP2016220384 A JP 2016220384A JP 2018077417 A JP2018077417 A JP 2018077417A
Authority
JP
Japan
Prior art keywords
image
display
partial image
information
gaze position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016220384A
Other languages
Japanese (ja)
Inventor
顕司 坂本
Kenji Sakamoto
顕司 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2016220384A priority Critical patent/JP2018077417A/en
Publication of JP2018077417A publication Critical patent/JP2018077417A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To guide the line of sight of a first user to a partial image indicated by a second user in a display image.SOLUTION: A display system comprises: a determination part that determines a gazed position at which a first user gazes in an image displayed in a display area; an information acquisition part that acquires information on a partial image designated by a second user in the image; and a determination part that determines whether the partial image is gazed by the first user on the basis of the gazed position determined in the display area while the image is displayed and the information of an area of the partial image. When determining that the partial image is not gazed, the display system displays a guidance image for guiding the line of sight to the partial image in the display area.SELECTED DRAWING: Figure 6

Description

この開示は、表示システム、プログラムおよび表示制御方法に関し、特に、表示画像に対するユーザーの注目を促すための表示システム、プログラムおよび表示制御方法に関する。   The present disclosure relates to a display system, a program, and a display control method, and more particularly, to a display system, a program, and a display control method for prompting a user to pay attention to a display image.

発表者がプレゼンテーションを行う際には、ホワイトボードやポスターなどのアナログ情報の資料または専用アプリケーションおよび会議向けソリューションなどのデジタル資料を用いることが多い。参加者は、発表者が提示するプレゼン資料を見ながら、発表を聴講する。   When presenters make presentations, analog information materials such as whiteboards and posters or digital materials such as dedicated applications and conference solutions are often used. Participants listen to the presentation while viewing the presentation material presented by the presenter.

情報を出力し、出力される情報に対してユーザーの注目を促すための技術として、例えば特許文献1(特開2000−184345号公報)は、ユーザーが参加者と共有する情報において、ユーザーの音声及び映像からユーザーの注目情報を抽出し、抽出した注目情報を他の参加者に伝達するマルチモーダルコミュニケーションシステムを開示する。   As a technique for outputting information and encouraging the user's attention to the output information, for example, Patent Document 1 (Japanese Patent Laid-Open No. 2000-184345) discloses a user's voice in information shared by a user with a participant. And a multimodal communication system for extracting user attention information from video and transmitting the extracted attention information to other participants.

また、特許文献2(特開2015−191554号公報)は、撮影画像からユーザーが注目する対象を決定し、決定された対象に、ユーザーの視線を誘導する電子機器を開示する。   Patent Document 2 (Japanese Patent Laid-Open No. 2015-191554) discloses an electronic device that determines a target that a user pays attention to from a captured image and guides the user's line of sight to the determined target.

また、特許文献3は(特開2000−339309号公報)は、視線追尾手段によってユーザーが注目している画面上の入力情報を文字列に変換する文字列解析装置を開示する。   Japanese Patent Application Laid-Open No. 2000-339309 discloses a character string analysis device that converts input information on a screen that a user is paying attention to into a character string by a line-of-sight tracking means.

特開2000−184345号公報JP 2000-184345 A 特開2015−191554号公報JP-A-2015-191554 特開2000−339309号公報JP 2000-339309 A

プレゼンテーションを行う発表者は、プレゼンテーションの効果を得るために、発表者が提示する情報に、参加者の視線を誘導したいとの要望がある。上記の各特許文献では、このような視線を誘導するための構成は提供されていない。   There is a demand for a presenter who makes a presentation to guide the participant's line of sight to the information presented by the presenter in order to obtain the effect of the presentation. Each of the above patent documents does not provide a configuration for guiding such a line of sight.

この開示は、第1ユーザーの視線を、表示画像における第2ユーザーが指示する部分画像に誘導することが可能な表示システム、プログラムおよび表示制御方法を提供することである。   This disclosure is to provide a display system, a program, and a display control method capable of guiding the line of sight of a first user to a partial image indicated by a second user in a display image.

この開示のある局面に従う表示システムは、表示領域に表示される画像における第1ユーザーが注視する注視位置を判定する判定部と、画像における第2ユーザーが指定する部分画像の情報を取得する情報取得部と、表示領域に画像を表示中において判定される注視位置と部分画像の領域の情報とに基づき、部分画像が第1ユーザーにより注目されているか否かを判断する判断部と、を備え、部分画像は注目されていないと判断された場合に、表示領域において部分画像に視線を誘導するための誘導画像を表示する。   A display system according to an aspect of the present disclosure includes a determination unit that determines a gaze position at which a first user gazes in an image displayed in a display area, and information acquisition that acquires information on a partial image specified by a second user in the image And a determination unit that determines whether or not the partial image is attracting attention by the first user based on the gaze position determined during display of the image in the display region and the information on the partial image region, When it is determined that the partial image is not focused, a guide image for guiding the line of sight to the partial image is displayed in the display area.

好ましくは、表示領域は、第1ユーザーに対して画像を表示する第1表示領域と、第2ユーザーに対して画像を表示する第2表示領域と、を含み、判定部は、第1表示領域における第1ユーザーが注視する注視位置を判定し、情報取得部は、第2表示領域に表示される画像における第2ユーザーが指定する部分画像の情報を取得し、判断部は、第1表示領域に画像を表示中において判定される注視位置と部分画像の領域の情報とに基づき、部分画像が第1ユーザーにより注目されているか否かを判断し、表示システムは、部分画像は注目されていないと判断された場合に、第1表示領域において誘導画像を表示する。   Preferably, the display area includes a first display area for displaying an image for the first user and a second display area for displaying an image for the second user, and the determination unit includes the first display area. The gaze position at which the first user gazes is determined, the information acquisition unit acquires information on the partial image specified by the second user in the image displayed in the second display area, and the determination unit includes the first display area. The display system determines whether or not the partial image is attracting attention by the first user based on the gaze position determined during the display of the image and the information on the partial image area, and the display system does not attract the partial image. If it is determined, the guide image is displayed in the first display area.

好ましくは、表示領域は、画像を表示するための画面上の領域、または画像を投影するための投影面上の領域を含む。   Preferably, the display area includes an area on a screen for displaying an image, or an area on a projection surface for projecting an image.

好ましくは、情報取得部は、表示領域の画像が示す情報のうち、第2ユーザーが発話する音声にマッチングする部分情報を検出するマッチング部と、第2ユーザーの視線情報を取得する視線取得部と、を有し、第2ユーザーが指定する部分画像は、取得される視線情報に基づく表示領域における注視位置に対応する部分画像、またはポインタ画像が重畳表示される部分画像、または音声とマッチングする部分情報を表示する部分画像を含む。   Preferably, the information acquisition unit includes a matching unit that detects partial information that matches a voice uttered by the second user, and a line-of-sight acquisition unit that acquires the line-of-sight information of the second user. The partial image designated by the second user is a partial image corresponding to the gaze position in the display area based on the acquired line-of-sight information, a partial image on which a pointer image is superimposed or displayed, or a portion matching audio Includes partial images that display information.

好ましくは、第1ユーザーの表示領域に向けられた視線を示す視線情報を検出する視線検出部と、をさらに備え、判定部は、検出された視線情報から注視位置を判定する。   Preferably, a visual line detection unit that detects visual line information indicating a visual line directed to the display area of the first user, and the determination unit determines the gaze position from the detected visual line information.

好ましくは、判断部は、注視位置と部分画像の領域との距離または当該領域に注視位置が存在した時間の少なくとも一方に基づき、注目がなされているか否かを判断する。   Preferably, the determination unit determines whether or not attention is made based on at least one of a distance between the gaze position and the partial image area or a time when the gaze position exists in the area.

好ましくは、画像における注視位置の移動経路の履歴を取得する経路取得部を、さらに含み、移動経路が、注視位置は画像の部分画像の領域を通過した履歴を示す場合は、誘導画像を非表示にする。   Preferably, the image processing apparatus further includes a route acquisition unit that acquires a history of the movement path of the gaze position in the image, and when the movement path indicates a history of passing the region of the partial image of the image, the guide image is not displayed. To.

好ましくは、移動経路の履歴が、注視位置は部分画像の領域を通過したことを示さないときは、誘導画像を表示する。   Preferably, when the movement route history does not indicate that the gaze position has passed the area of the partial image, the guide image is displayed.

好ましくは、誘導画像の種類は、部分画像に向けられた矢印の画像、または部分画像の方向へ移動するカーソルの画像、または部分画像を強調する画像、または部分画像が表す情報をポップアップ表示する画像を含む。   Preferably, the type of the guide image is an image of an arrow directed to the partial image, an image of a cursor that moves in the direction of the partial image, an image that emphasizes the partial image, or an image that pops up information represented by the partial image including.

好ましくは、表示領域のサイズに基づき、表示される誘導画像の種類を変更する。
この開示の他の局面では、表示制御方法をコンピュータに実行させるためのプログラムが提供される。表示制御方法は、表示領域に表示される画像における第1ユーザーが注視する注視位置を取得するステップと、画像における第2ユーザーが指定する部分画像の情報を取得するステップと、表示領域に画像を表示中において取得される注視位置と部分画像の領域の情報とに基づき、部分画像が第1ユーザーにより注目されているか否かを判断するステップと、部分画像は注目されていないと判断された場合に、表示領域において部分画像に視線を誘導するための画像を表示するステップと、を備える。
Preferably, the type of the guide image to be displayed is changed based on the size of the display area.
In another aspect of the present disclosure, a program for causing a computer to execute a display control method is provided. The display control method includes a step of acquiring a gaze position at which the first user gazes in an image displayed in the display area, a step of acquiring information on a partial image designated by the second user in the image, and an image in the display area. A step of determining whether or not the partial image has received attention by the first user based on the gaze position acquired during display and the information on the area of the partial image, and a case in which it is determined that the partial image has not received attention And displaying an image for guiding the line of sight to the partial image in the display area.

この開示の他の局面に係る表示制御方法は、表示領域に表示される画像における第1ユーザーが注視する注視位置を取得するステップと、画像における第2ユーザーが指定する部分画像の情報を取得するステップと、表示領域に画像を表示中において取得される注視位置と部分画像の領域の情報とに基づき、部分画像が前記第1ユーザーにより注目されているか否かを判断するステップと、部分画像は注目されていないと判断された場合に、表示領域において部分画像に視線を誘導するための画像を表示するステップと、を備える。   In the display control method according to another aspect of the present disclosure, a step of acquiring a gaze position at which the first user gazes in an image displayed in the display area, and information on a partial image specified by the second user in the image are acquired. Determining whether the partial image is attracting attention by the first user based on the step, the gaze position acquired while displaying the image in the display area, and the information on the partial image area; And a step of displaying an image for guiding the line of sight to the partial image in the display area when it is determined that attention has not been paid.

この開示によれば、第1ユーザーの視線を、表示画像における第2ユーザーが指示する部分画像に誘導することが可能となる。   According to this disclosure, it is possible to guide the line of sight of the first user to the partial image indicated by the second user in the display image.

実施の形態1に係るプレゼンテーションシステムの構成を概略的に示す図である。1 is a diagram schematically showing a configuration of a presentation system according to Embodiment 1. FIG. 実施の形態1に係るプレゼンテーションシステムの利用態様の一例を模式的に示す図である。2 is a diagram schematically illustrating an example of a usage mode of the presentation system according to Embodiment 1. FIG. 実施の形態1に係る誘導画像の表示例を示す図である。6 is a diagram illustrating a display example of a guide image according to Embodiment 1. FIG. 実施の形態1に係る参加側端末300のハードウェア構成の具体例を示す図である。3 is a diagram illustrating a specific example of a hardware configuration of a participating terminal 300 according to Embodiment 1. FIG. 実施の形態1に係る発表側端末200のハードウェア構成の具体例を示す図である。3 is a diagram illustrating a specific example of a hardware configuration of a presentation-side terminal 200 according to Embodiment 1. FIG. 実施の形態1に係る発表側端末200が有する機能の構成を模式的に示す図である。FIG. 3 is a diagram schematically illustrating a configuration of functions of a presentation-side terminal 200 according to Embodiment 1. 実施の形態1に係る参加側端末300が有する機能の構成を模式的に示す図である。It is a figure which shows typically the structure of the function which the participating terminal 300 which concerns on Embodiment 1 has. 実施の形態1に係る視線と注視位置を説明する図である。FIG. 5 is a diagram illustrating a line of sight and a gaze position according to Embodiment 1. 実施の形態1に係る発表側端末200の処理フローチャートである。6 is a process flowchart of the presentation side terminal 200 according to Embodiment 1. 実施の形態1に係る参加側端末300の処理フローチャートである。4 is a process flowchart of a participating terminal 300 according to the first embodiment. 実施の形態2に係る注視位置の移動経路を説明する図である。10 is a diagram for explaining a movement path of a gaze position according to Embodiment 2. FIG. 実施の形態2に係る注視位置の移動経路を説明する図である。10 is a diagram for explaining a movement path of a gaze position according to Embodiment 2. FIG. 実施の形態2に係る注視位置の移動経路を説明する図である。10 is a diagram for explaining a movement path of a gaze position according to Embodiment 2. FIG. 実施の形態3に係る注視位置の移動経路を説明するための図である。10 is a diagram for explaining a movement path of a gaze position according to Embodiment 3. FIG. 参加側端末300の他の例を示す図である。It is a figure which shows the other example of the participation side terminal.

実施の形態について、以下、図面を参照しながら説明する。同一の部品および相当部品には同一の参照番号を付し、重複する説明は繰り返さない場合がある。   Hereinafter, embodiments will be described with reference to the drawings. The same parts and corresponding parts are denoted by the same reference numerals, and redundant description may not be repeated.

各実施の形態では、発表者と参加者は同じ画像を共有し得る。発表者は、画像において、参加者の視線による注目がなされるべき部分画像を指示する者である。参加者は「第1ユーザー」の一実施例であり、発表者は「第2ユーザー」の一実施例である。   In each embodiment, the presenter and the participant can share the same image. The presenter is a person instructing a partial image to be noticed by the participant's line of sight in the image. The participant is an example of “first user”, and the presenter is an example of “second user”.

各実施の形態では、画像を表示中に、参加者の視線情報から注視位置が判定されて、注視位置に基づき発表者が注目してほしい部分画像に注目がなされていないと判断されたときは、第2ユーザーの視線を部分画像に誘導するための誘導画像が表示される。   In each embodiment, when an image is displayed, the gaze position is determined from the gaze information of the participant, and when it is determined that the partial image that the presenter wants to pay attention based on the gaze position is not focused A guide image for guiding the second user's line of sight to the partial image is displayed.

[実施の形態1]
図1は、実施の形態1に係るプレゼンテーションシステムの構成を概略的に示す図である。プレゼンテーションシステムは、「表示システム」の一実施例である。図1を参照して、プレゼンテーションシステムは、主に、発表者により使用される発表側端末200および参加者により操作される1または複数の参加側端末300を備える。発表側端末200と各参加側端末300は、ネットワークNTを介して相互に通信する。ネットワークNTは、有線または無線の各種の通信回線を含み得る。実施の形態1では、発表側端末200により表示される画像と、参加側端末300により表示される画像とは同一内容を示す。
[Embodiment 1]
FIG. 1 is a diagram schematically showing a configuration of a presentation system according to the first embodiment. The presentation system is an example of a “display system”. Referring to FIG. 1, the presentation system mainly includes a presenting terminal 200 used by a presenter and one or a plurality of participating terminals 300 operated by a participant. The presenting terminal 200 and each participating terminal 300 communicate with each other via the network NT. The network NT may include various wired or wireless communication lines. In the first embodiment, the image displayed by the presentation side terminal 200 and the image displayed by the participation side terminal 300 show the same content.

(利用態様)
図2は、実施の形態1に係るプレゼンテーションシステムの利用態様の一例を模式的に示す図である。図2を参照して、発表者は、発表側端末200により表示領域Sに画像を表示する。発表側端末200は、表示領域Sに表示される画像のデータを、ネットワークNTまたは外部ネットワークを介して、参加側端末300のそれぞれに送信可能である。参加側端末300は、発表側端末200から受信するデータに従いディスプレイ36に画像を表示する。したがって、発表者と参加者は、同時に同じ画像を閲覧することができる。
(Usage mode)
FIG. 2 is a diagram schematically illustrating an example of a usage mode of the presentation system according to the first embodiment. With reference to FIG. 2, the presenter displays an image in the display area S by the presentation side terminal 200. The presentation side terminal 200 can transmit image data displayed in the display area S to each of the participation side terminals 300 via the network NT or an external network. The participating terminal 300 displays an image on the display 36 according to the data received from the presentation terminal 200. Therefore, the presenter and the participant can view the same image at the same time.

(発表者の注視位置と部分画像)
発表者は、表示領域Sに表示されている画像において部分画像Cを指示する。部分画像Cは、たとえば発表者が参加者に注目してもらいたい情報を示す。実施の形態1では、部分画像Cは、発表者の注視位置GPを中心とした半径Rの円内の画像として規定するが、規定方法はこれに限定されない。実施の形態1では、注視位置GPは、発表者の表示領域Sに向けられた視線に基づく位置、指示体(指、ポインタ等)が指し示す位置、後述するように発話の音声が指示する情報が表示される位置を含み得るが、これらに限定されない。
(Presenter's gaze position and partial image)
The presenter instructs the partial image C in the image displayed in the display area S. The partial image C indicates information that the presenter wants the participant to pay attention to, for example. In the first embodiment, the partial image C is defined as an image within a circle having a radius R centered on the gaze position GP of the presenter, but the defining method is not limited to this. In the first embodiment, the gaze position GP includes the position based on the line of sight directed toward the display area S of the presenter, the position indicated by the indicator (finger, pointer, etc.), and information indicated by the voice of the utterance as will be described later. The displayed position can be included, but is not limited thereto.

発表者の視線により注視されることにより、または指示体を用いることにより注視位置GPが検出される場合は、発表側端末200に接続可能なカメラ201(後述する)による撮像画像に基づき、表示領域Sにおける注視位置GPが検出される。カメラ201は、表示領域に向けられた発表者を(主に、顔部分)を撮影可能なように配置されている。   When the gaze position GP is detected by gaze with the gaze of the presenter or by using an indicator, the display area is based on the image captured by the camera 201 (described later) connectable to the presentation side terminal 200 A gaze position GP in S is detected. The camera 201 is arranged so as to be able to photograph the presenter (mainly the face portion) directed to the display area.

また、発表者が発話する音声により注視位置GPが検出される場合は、音声を用いたマッチング処理が実施される。マッチング処理では、発表側端末200はマイク24(後述する)により、発表者の発話による音声を収集する。そして、発表側端末200は、音声をテキストデータに変換し、変換後のテキストデータ(文字列等)を用いたマッチング処理を実施する。例えば、発表側端末200は、変換後のテキストデータに基づき、表示領域Sに表示中の画像が表す文字列等の情報を検索し、検索の結果に基づき、合致する文字列を抽出し、抽出された文字列の表示位置を注視位置GPと特定(検出)する。   Further, when the gaze position GP is detected by the voice uttered by the presenter, the matching process using the voice is performed. In the matching process, the presentation-side terminal 200 collects speech from the speaker's utterance using the microphone 24 (described later). And the presentation side terminal 200 converts the voice into text data, and performs a matching process using the converted text data (character string or the like). For example, the presentation-side terminal 200 searches for information such as a character string represented by an image being displayed in the display area S based on the converted text data, and extracts and extracts a matching character string based on the search result. The display position of the character string thus identified is identified (detected) as the gaze position GP.

発表側端末200は、部分画像Cの情報を参加側端末300に送信する。参加側端末300は、発表側端末200から受信する情報に基づき、ディスプレイ36の表示中の画像において、部分画像に視線を誘導するための誘導画像R1(図3参照)を表示する。   The presentation side terminal 200 transmits information on the partial image C to the participation side terminal 300. Based on the information received from the presentation-side terminal 200, the participation-side terminal 300 displays a guide image R1 (see FIG. 3) for guiding the line of sight to the partial image in the image being displayed on the display 36.

(参加者の注視位置と誘導画像)
図3は、実施の形態1に係る誘導画像R1の表示例を示す図である。図3を参照して、誘導画像R1は、ディスプレイ36の画像を閲覧する参加者の視線(より特定的には、参加者の注視位置C1)を部分画像C2(部分画像Cに対応)に誘導する(注目させる)ために表示される画像である。誘導画像R1の種類としては、例えば、注視位置C1から部分画像C2の方向に向けられた矢印の画像、または部分画像C2の方向へ移動するカーソルの画像、または部分画像C2を強調する画像、または部分画像C2において表される情報(文字列等)を、部分画像C2の付近でポップアップ表示される画像等を含む。なお、誘導画像R1は、表示された場合に参加者の視線を誘導可能な画像であればよく、種類はこれらに限定されない。
(Participant gaze position and guidance image)
FIG. 3 is a diagram illustrating a display example of the guide image R1 according to the first embodiment. Referring to FIG. 3, guide image R1 guides a participant's line of sight (more specifically, a participant's gaze position C1) viewing the image on display 36 to partial image C2 (corresponding to partial image C). It is an image that is displayed to do (make attention). As the type of the guide image R1, for example, an image of an arrow directed from the gaze position C1 in the direction of the partial image C2, an image of a cursor moving in the direction of the partial image C2, or an image that emphasizes the partial image C2, or The information (character string or the like) represented in the partial image C2 includes an image displayed in a pop-up near the partial image C2. The guide image R1 may be an image that can guide the participant's line of sight when displayed, and the type is not limited to these.

実施の形態1では、発表者が閲覧する画像の表示領域(図2では、表示領域Sに相当)は、発表側端末200が備えるディスプレイの画面、または発表側端末200に接続されたプロジェクター202(後述する)によって画像が投影される投影面203(後述する)などを含み得る。また、参加者が閲覧する画像の表示領域は、図2のディスプレイ36の画面、または参加側端末300が接続可能なプロジェクター38B(後述する)によって画像が投影される投影面38C(後述する)などを含み得る。   In the first embodiment, the display area of the image viewed by the presenter (corresponding to the display area S in FIG. 2) is the display screen of the presenting terminal 200 or the projector 202 (connected to the presenting terminal 200). A projection plane 203 (described later) on which an image is projected can be included. The display area of the image viewed by the participant is a screen of the display 36 in FIG. 2 or a projection plane 38C (described later) on which an image is projected by a projector 38B (described later) to which the participant terminal 300 can be connected. Can be included.

実施の形態1では、誘導画像R1の上述の種類は、画像の表示領域のサイズに基づき、変更してもよい。例えば、プロジェクター38Bのような大画面ではなく、パーソナルコンピュータ等のディスプレイ36のような比較的小さい画面では、誘導画像R1は、ポップアップ画像であってもよい。   In the first embodiment, the above-described type of the guide image R1 may be changed based on the size of the display area of the image. For example, the guide image R1 may be a pop-up image on a relatively small screen such as the display 36 such as a personal computer instead of a large screen such as the projector 38B.

(参加側端末300の構成)
図4は、実施の形態1に係る参加側端末300のハードウェア構成の具体例を示す図である。図4を参照して、参加側端末300は、全体を制御する制御部に相当するCPU(Central Processing Unit)30、CPU30で実行されるプログラムおよびデータを記憶するためのROM(Read Only Memory)31およびRAM(Random Access Memory)32、プロジェクターI/F(インターフェイス略)33、参加側端末300に対するユーザー(参加者)の指示を受付けるための操作部34、ネットワークNTを介した通信を制御する通信コントローラ35、ディスプレイ36を制御する表示制御部38を含む。さらに、参加側端末300は、カメラ37およびメモリインターフェイス39を含む。
(Configuration of participating terminal 300)
FIG. 4 is a diagram illustrating a specific example of the hardware configuration of the participating terminal 300 according to the first embodiment. Referring to FIG. 4, a participating terminal 300 includes a CPU (Central Processing Unit) 30 corresponding to a control unit that controls the whole, and a ROM (Read Only Memory) 31 for storing programs and data executed by the CPU 30. And a RAM (Random Access Memory) 32, a projector I / F (interface omitted) 33, an operation unit 34 for accepting a user (participant) instruction to the participation-side terminal 300, and a communication controller for controlling communication via the network NT 35. A display control unit 38 for controlling the display 36 is included. Further, the participating terminal 300 includes a camera 37 and a memory interface 39.

プロジェクターI/F33は、投影面33Bに画像を投影するプロジェクター33Aを接続する。通信コントローラ35は、モデム回路および増幅回路などを含む。   The projector I / F 33 connects a projector 33A that projects an image on the projection surface 33B. The communication controller 35 includes a modem circuit and an amplifier circuit.

メモリインターフェイス39は、記憶媒体の一例であるメモリカード40が着脱自在に装着される。メモリインターフェイス39は、CPU30により制御されて、メモリカード40にデータを書込む回路、またはメモリカード40からデータを読出す回路を含む。   The memory interface 39 is detachably mounted with a memory card 40 that is an example of a storage medium. The memory interface 39 includes a circuit for writing data to the memory card 40 or a circuit for reading data from the memory card 40 under the control of the CPU 30.

(発表側端末200の構成)
図5は、実施の形態1に係る発表側端末200のハードウェア構成の具体例を示す図である。図5を参照して、発表側端末200は、全体を制御する制御部に相当するCPU(Central Processing Unit)20、CPU20により実行されるプログラムおよびデータを記憶するためのROM(Read Only Memory)21およびRAM(Random Access Memory)22、ディスプレイ23、ユーザーが発表側端末200に情報を入力するために操作する操作パネル25、ディスプレイ23を制御する表示制御部26、ネットワークNTを介した通信を実施するための通信コントローラ27、ならびにメモリインターフェイス28を備える。また、発表側端末200は、マイク24、カメラ201、投影面203に画像を投影するプロジェクター202を接続するプロジェクターI/F(インターフェイスの略)26Aを備える。
(Configuration of the presentation terminal 200)
FIG. 5 is a diagram illustrating a specific example of the hardware configuration of the presenting terminal 200 according to the first embodiment. Referring to FIG. 5, presentation terminal 200 includes a CPU (Central Processing Unit) 20 corresponding to a control unit that controls the whole, and a ROM (Read Only Memory) 21 for storing programs and data executed by CPU 20. And a random access memory (RAM) 22, a display 23, an operation panel 25 that a user operates to input information to the presentation terminal 200, a display control unit 26 that controls the display 23, and communication via the network NT. A communication controller 27 and a memory interface 28. The presentation-side terminal 200 includes a projector I / F (abbreviation of interface) 26 </ b> A that connects a microphone 24, a camera 201, and a projector 202 that projects an image onto a projection surface 203.

ディスプレイ23と操作パネル25は、一体的に構成されたタッチパネルとして提供されてもよい。通信コントローラ27は、通信するためのモデム回路、増幅回路などを含む。表示制御部26は、表示データに基づきディスプレイ23を駆動する駆動回路を含む。   The display 23 and the operation panel 25 may be provided as an integrated touch panel. The communication controller 27 includes a modem circuit, an amplifier circuit, and the like for communication. The display control unit 26 includes a drive circuit that drives the display 23 based on the display data.

メモリインターフェイス28は、記憶媒体の一例であるメモリカード29が着脱自在に装着される。メモリインターフェイス28は、CPU20により制御されて、メモリカード29にデータを書込む回路、またはメモリカード29からデータを読出す回路を含む。   A memory card 29 as an example of a storage medium is detachably attached to the memory interface 28. Memory interface 28 includes a circuit that is controlled by CPU 20 to write data to memory card 29 or a circuit that reads data from memory card 29.

(発表側端末200の機能構成)
図6は、実施の形態1に係る発表側端末200が有する機能の構成を模式的に示す図である。図6に示され各部は、CPU20が実行するプログラムまたはプログラムと回路の組合せにより実現される。
(Functional configuration of the presentation terminal 200)
FIG. 6 is a diagram schematically illustrating a functional configuration of the presenting terminal 200 according to the first embodiment. Each unit shown in FIG. 6 is realized by a program executed by the CPU 20 or a combination of a program and a circuit.

図6を参照して、CPU20は、通信コントローラ27を介した参加側端末300との通信処理を実施する通信処理部41および画像の表示処理部50を備える。   Referring to FIG. 6, the CPU 20 includes a communication processing unit 41 that performs communication processing with the participating terminal 300 via the communication controller 27 and an image display processing unit 50.

通信処理部41は、参加側端末300から参加者の注視位置の情報を受信する。具体的には、参加側端末300は、表示領域(ディスプレイ36または投影面33B)に画像を表示中に、参加者の注視位置を判定し、判定された注視位置を示す情報を発表側端末200に送信する。   The communication processing unit 41 receives information on the gaze position of the participant from the participation side terminal 300. Specifically, the participating terminal 300 determines the gaze position of the participant while displaying an image on the display area (the display 36 or the projection surface 33B), and provides information indicating the determined gaze position on the presentation terminal 200. Send to.

表示処理部50は、視線検出部51、位置判定部52、決定部53、注目判断部54、生成部55および経路取得部56を備える。   The display processing unit 50 includes a line-of-sight detection unit 51, a position determination unit 52, a determination unit 53, an attention determination unit 54, a generation unit 55, and a route acquisition unit 56.

視線検出部51は、発表者の視線を検出する。位置判定部52は、発表者が注視する注視位置GPを判定する。位置判定部52は、視線情報から注視位置GPを判定する機能と、上述のマッチング処理により注視位置GPを判定するマッチング部52Aを含む。   The line-of-sight detection unit 51 detects the line of sight of the presenter. The position determination unit 52 determines the gaze position GP where the presenter gazes. The position determination unit 52 includes a function of determining the gaze position GP from the line-of-sight information and a matching unit 52A that determines the gaze position GP by the above-described matching processing.

決定部53は、表示領域(ディスプレイ23または投影面203)に画像を表示する場合に、判定された注視位置GPに基づき、表示画像における部分画像Cを決定し、部分画像Cを示す情報を出力する。   The determination unit 53 determines a partial image C in the display image based on the determined gaze position GP and outputs information indicating the partial image C when displaying an image on the display area (the display 23 or the projection surface 203). To do.

注目判断部54は、通信処理部41によって受信された参加者の注視位置の情報に基づき、参加者が、決定部53により決定された部分画像Cに注目しているか否かを判断する。   The attention determination unit 54 determines whether the participant is paying attention to the partial image C determined by the determination unit 53 based on the information on the gaze position of the participant received by the communication processing unit 41.

生成部55は、注目判断部54が参加者は部分画像Cに注目していないと判断した場合に、ディスプレイ36または投影面33Bの表示領域において部分画像Cに視線を誘導するための誘導画像R1(図3参照)を表示するための画像データを生成する。生成された画像データは、通信処理部41を介して参加側端末300に送信される。   When the attention determining unit 54 determines that the participant does not pay attention to the partial image C, the generation unit 55 guides the guide image R1 for guiding the line of sight to the partial image C in the display area of the display 36 or the projection surface 33B. Image data for displaying (see FIG. 3) is generated. The generated image data is transmitted to the participating terminal 300 via the communication processing unit 41.

参加側端末300は、発表側端末200から受信した画像データを表示制御部38またはプロジェクターI/F33に出力する。表示制御部38は画像データに従いディスプレイ36を駆動する。これにより、ディスプレイ36で表示中の画像における部分画像C2(部分画像Cに対応)に視線を誘導するための誘導画像R1が表示される。また、同様に、プロジェクターI/F33は画像データに従いプロジェクター33Aを制御する。これにより、投影面33Bで表示中の画像において、部分画像C2に視線を誘導するための誘導画像R1が表示される。   The participation side terminal 300 outputs the image data received from the presentation side terminal 200 to the display control unit 38 or the projector I / F 33. The display control unit 38 drives the display 36 according to the image data. As a result, the guide image R1 for guiding the line of sight to the partial image C2 (corresponding to the partial image C) in the image being displayed on the display 36 is displayed. Similarly, the projector I / F 33 controls the projector 33A according to the image data. Thereby, in the image being displayed on the projection surface 33B, the guide image R1 for guiding the line of sight to the partial image C2 is displayed.

経路取得部56は、参加側端末300から受信する参加者の注視位置の情報を、予め定められた周期でサンプリングすることにより、時系列に並んだ位置情報の履歴からなる移動経路を検出する。   The route acquisition unit 56 detects a moving route including a history of position information arranged in time series by sampling the information on the gaze position of the participant received from the participating terminal 300 at a predetermined cycle.

(参加側端末300の機能構成)
図7は、実施の形態1に係る参加側端末300が有する機能の構成を模式的に示す図である。図7に示された各部は、CPU30が実行するプログラムまたはプログラムと回路の組合せにより実現される。
(Functional configuration of participating terminal 300)
FIG. 7 is a diagram schematically illustrating a functional configuration of the participating terminal 300 according to the first embodiment. Each unit illustrated in FIG. 7 is realized by a program executed by the CPU 30 or a combination of a program and a circuit.

図7を参照して、CPU30は、画像の表示処理部60および通信処理部70を備える。表示処理部60は、情報取得部63を含む。情報取得部63は、視線検出部61および位置判定部62を有する。表示処理部60は、表示用の画像データを生成し、表示制御部38またはプロジェクターI/F33に出力する。通信処理部70は、通信コントローラ35を介した発表側端末200との通信処理を実施する。   Referring to FIG. 7, CPU 30 includes an image display processing unit 60 and a communication processing unit 70. The display processing unit 60 includes an information acquisition unit 63. The information acquisition unit 63 includes a line-of-sight detection unit 61 and a position determination unit 62. The display processing unit 60 generates image data for display and outputs it to the display control unit 38 or the projector I / F 33. The communication processing unit 70 performs communication processing with the presentation side terminal 200 via the communication controller 35.

情報取得部63は、ディスプレイ36または投影面33Bの表示領域(発表側端末200の表示領域とは異なる表示領域)に画像が表示される場合に、表示される画像における参加者の注視位置の情報を取得する。具体的には、視線検出部61は、参加者の視線情報を検出し、位置判定部62は、視線情報に基づき、表示中の画像における注視位置を判定する。   The information acquisition unit 63, when an image is displayed in the display area of the display 36 or the projection surface 33B (display area different from the display area of the presentation terminal 200), information on the gaze position of the participant in the displayed image To get. Specifically, the gaze detection unit 61 detects the gaze information of the participant, and the position determination unit 62 determines the gaze position in the displayed image based on the gaze information.

通信処理部70は、参加者の注視位置の情報を発表側端末200に送信するための送信用データを生成し、生成されたデータを通信コントローラ27に出力する。これにより、参加側端末300は、ディスプレイ36または投影面33Bに表示される画像において、参加者の注視位置を示す情報を発表側端末200に送信することができる。   The communication processing unit 70 generates transmission data for transmitting information on the gaze position of the participant to the presentation side terminal 200, and outputs the generated data to the communication controller 27. Thereby, the participation terminal 300 can transmit information indicating the gaze position of the participant to the presentation terminal 200 in the image displayed on the display 36 or the projection surface 33B.

(視線と注視位置の検出)
図8は、実施の形態1に係る視線と注視位置を説明する図である。実施の形態1では、発表者が、表示領域S(ディスプレイ23または投影面203)に顔を向けている場合に、発表者の顔がカメラ201によって撮像される。同様に、参加者が、表示領域S(ディスプレイ36または投影面33B)に顔を向けている場合に、参加者の顔はカメラ37によって撮像される。まず、発表者の視線と注視位置を検出する方法を説明する。カメラ201および37は、赤外線カメラを含む。
(Gaze and gaze position detection)
FIG. 8 is a diagram illustrating the line of sight and the gaze position according to the first embodiment. In the first embodiment, when the presenter faces the display area S (the display 23 or the projection plane 203), the face of the presenter is captured by the camera 201. Similarly, when the participant faces his / her face to the display area S (display 36 or projection surface 33B), the participant's face is imaged by the camera 37. First, a method for detecting the presenter's line of sight and gaze position will be described. Cameras 201 and 37 include infrared cameras.

視線検出部51は、カメラ201からの出力(画像信号)を、例えば、赤外線カメラの出力を角膜反射法に従い処理することにより、発表者の視線方向を検出する。角膜反射法は周知の技術であるので、ここでは説明を繰返さない。また、視線検出部51は、カメラ201の出力に含まれるステレオ画像信号から、視点の視差を検出し、検出した視差から視点位置E、すなわち3次元位置(X,Y,Zの3次元座標)を算出する。   The line-of-sight detection unit 51 detects the line-of-sight direction of the presenter by processing the output (image signal) from the camera 201, for example, by processing the output of the infrared camera according to the corneal reflection method. Since the corneal reflection method is a well-known technique, description thereof will not be repeated here. The line-of-sight detection unit 51 detects the parallax of the viewpoint from the stereo image signal included in the output of the camera 201, and the viewpoint position E, that is, the three-dimensional position (three-dimensional coordinates of X, Y, and Z) from the detected parallax. Is calculated.

位置判定部52は、視線方向(β度)と、視点位置Eとから仮想平面(表示領域Sに相当)上の注視位置GPを判定する。注視位置GPは、視点位置Eから視線方向に直線を引いたときに表示領域Sと交わる点に対応する。   The position determination unit 52 determines the gaze position GP on the virtual plane (corresponding to the display area S) from the line-of-sight direction (β degrees) and the viewpoint position E. The gaze position GP corresponds to a point that intersects the display area S when a straight line is drawn from the viewpoint position E in the line-of-sight direction.

決定部53は、画像において、注視位置GPを中心点とした半径Rの円内に含まれる画像を部分画像Cと決定し、判定した部分画像Cの情報を出力する。具体的には、決定部53は、表示される画像のビットマップデータにおいて、予め定められた演算式に従い、注視位置GPをビットマップ上の位置(座標位置)に換算する。決定部53は、算出されたビットマップ上における注視位置GPを中心点とした半径Rの円部分のビットマップ上の位置(座標位置)を判定し、判定された半径Rの円内のビットマップ上の位置を示す情報を、部分画像Cの情報として出力する。なお、部分画像Cの半径Rは可変であってよい。   The determination unit 53 determines an image included in a circle having a radius R with the gaze position GP as a center point in the image as a partial image C, and outputs information on the determined partial image C. Specifically, the determination unit 53 converts the gaze position GP into a position (coordinate position) on the bitmap according to a predetermined arithmetic expression in the bitmap data of the displayed image. The determination unit 53 determines the position (coordinate position) on the bitmap of the circle portion with the radius R with the gaze position GP as the center point on the calculated bitmap, and the bitmap within the circle with the determined radius R Information indicating the upper position is output as information of the partial image C. Note that the radius R of the partial image C may be variable.

参加側端末300の参加者の注視位置の情報についても、視線検出部61および位置判定部62により図8と同様に、画像のビットマップデータ上の位置(座標位置)として取得することができるので、ここでは説明を繰返さない。参加側端末300は、判定される参加者の注視位置の情報を、発表側端末200に送信する。   The information on the gaze position of the participant of the participant terminal 300 can also be acquired as the position (coordinate position) on the bitmap data of the image by the gaze detection unit 61 and the position determination unit 62 as in FIG. The description will not be repeated here. Participating side terminal 300 transmits information on the gaze position of the determined participant to presentation side terminal 200.

(発表側端末200の処理フロー)
図9は、実施の形態1に係る発表側端末200の表示制御方法の処理フローチャートである。フローチャートに従うプログラムは、ROM21等に格納される。CPU20が、プログラムを読出し、実行することにより処理が実現される。なお、ここでは説明を簡単にするために、発表側端末200の表示領域に表示される画像のサイズ(倍率)と、参加側端末300の表示領域に表示される画像のサイズ(倍率)は等しいと想定する。
(Processing flow of the presentation side terminal 200)
FIG. 9 is a process flowchart of the display control method of presentation-side terminal 200 according to Embodiment 1. A program according to the flowchart is stored in the ROM 21 or the like. The processing is realized by the CPU 20 reading and executing the program. Here, for the sake of simplicity of explanation, the size (magnification) of the image displayed in the display area of the presentation side terminal 200 is equal to the size (magnification) of the image displayed in the display area of the participation side terminal 300. Assume that

まず、発表側端末200により表示領域(ディスプレイ23または投影面203)に画像が表示されて、発表が開始される。この画像は、参加側端末300の表示領域(ディスプレイ36または33B)にも表示される。発表側端末200では、発表中は、視線検出部51、位置判定部52および決定部53により、発表者の注視位置に基づく部分画像Cの情報が定期的に検出される。   First, an image is displayed on the display area (display 23 or projection surface 203) by the presentation side terminal 200, and the presentation is started. This image is also displayed in the display area (display 36 or 33B) of the participating terminal 300. In the presentation-side terminal 200, during the presentation, the line-of-sight detection unit 51, the position determination unit 52, and the determination unit 53 periodically detect the information on the partial image C based on the gaze position of the presenter.

まず、通信処理部41は、参加側端末300から参加者の注視位置の情報を受信し、表示処理部50に出力する(ステップS3)。   First, the communication processing unit 41 receives information on the gaze position of the participant from the participating terminal 300 and outputs the information to the display processing unit 50 (step S3).

注目判断部54は、参加側端末300から受信する参加者の注視位置の情報と、決定部53により決定された部分画像Cのエリアの情報とを比較し、比較の結果に基づき、参加者の注視位置が部分画像Cから所定距離外れて(離れて)いるか否かを判断する(ステップS5)。注目判断部54が、所定距離外れていないと判断した場合は(ステップS5でNO)、ステップS3に戻る。このように、実施の形態1では、部分画像Cから所定距離の範囲内を、部分画像Cに対応の部分領域ともいう。この所定距離は、より特定的には注視位置GPからの距離(所定距離>R)でもある。   The attention determination unit 54 compares the information on the gaze position of the participant received from the participant terminal 300 with the information on the area of the partial image C determined by the determination unit 53, and based on the result of the comparison, It is determined whether or not the gaze position is deviated (separated) from the partial image C by a predetermined distance (step S5). If the attention determination unit 54 determines that the predetermined distance is not deviated (NO in step S5), the process returns to step S3. As described above, in the first embodiment, a range within a predetermined distance from the partial image C is also referred to as a partial region corresponding to the partial image C. More specifically, the predetermined distance is also a distance from the gaze position GP (predetermined distance> R).

なお、部分画像Cに対応の部分領域は、部分画像C自体が占有する領域であってもよい。その場合には、上記の所定距離は、半径Rに等しくなる。   The partial area corresponding to the partial image C may be an area occupied by the partial image C itself. In that case, the predetermined distance is equal to the radius R.

一方、注目判断部54が、参加者の注視位置が部分画像Cに対応の部分領域にない(所定距離外れている)と判断した場合は(ステップS5でYES)、注目判断部54は、所定距離外れていると継続して判断された時間が所定時間内であるか否かを判断する(ステップS7)。この継続時間が所定時間内であると判断された時は(ステップS7でYES)、ステップS3に戻る。   On the other hand, when the attention determination unit 54 determines that the gaze position of the participant is not in the partial region corresponding to the partial image C (departs from the predetermined distance) (YES in step S5), the attention determination unit 54 It is determined whether or not the time continuously determined to be out of the distance is within a predetermined time (step S7). When it is determined that the duration is within the predetermined time (YES in step S7), the process returns to step S3.

一方、上記の継続時間が、所定時間を越えていると判断された時は(ステップS7でNO)、位置判定部52は、カメラ201の撮像画像を用いた画像マッチング処理等により、発表者がポインタ等の指示体で注視位置GPを指定しているかを判定する(ステップS9)。ポインタ等の指示体で注視位置GPが指定されていないと判定すると(ステップS9でNO)、CPU20は、カメラ201の撮像画像を用いた画像マッチング処理等により、発表者が表示画像を見ているか否かを判断する(ステップS11)。例えば、カメラ201の撮像画像の発表者の画像から、発表者が表示画像を見ている姿勢であるか否かを、画像マッチング処理により判断することができる。   On the other hand, when it is determined that the above duration exceeds the predetermined time (NO in step S7), the position determination unit 52 uses the image matching process using the captured image of the camera 201, etc. It is determined whether or not the gaze position GP is designated by an indicator such as a pointer (step S9). If it is determined that the gaze position GP is not designated with an indicator such as a pointer (NO in step S9), the CPU 20 determines whether the presenter is viewing the display image by image matching processing using a captured image of the camera 201 or the like. It is determined whether or not (step S11). For example, it is possible to determine from the image of the presenter of the image captured by the camera 201 whether or not the presenter is looking at the display image by image matching processing.

ポインタ等の指示体で注視位置GPが指定されている、または発表者が表示画像を見ていると判断されると(ステップS9でYES、またはステップS11でYES)、位置判定部52により判定された発表者の注視位置GPに基づき、部分画像Cの情報が決定する(ステップS15)。   If it is determined that the gaze position GP is designated by an indicator such as a pointer or that the presenter is looking at the display image (YES in step S9 or YES in step S11), the position determination unit 52 determines. Information on the partial image C is determined based on the gaze position GP of the presenter (step S15).

また、発表者が表示画像を見ていないと判断されると(ステップS11でNO)、マッチング部52Aは、発表者の発話による音声を用いたマッチング処理を実施して、発表者の注視位置GPを判定する(ステップS13)。決定部53は、マッチング処理により判定された発表者の注視位置GPに基づき、部分画像Cの情報を決定する(ステップS15)。   If it is determined that the presenter is not viewing the display image (NO in step S11), the matching unit 52A performs a matching process using the voice of the presenter's utterance, and the presenter's gaze position GP. Is determined (step S13). The determination unit 53 determines information of the partial image C based on the gaze position GP of the presenter determined by the matching process (Step S15).

生成部55は、発表者が注視する部分画像Cに参加者の視線を誘導するための誘導画像R1を表示するための画像データを生成し、通信処理部41を介して参加側端末300に送信する(ステップS17)。このとき、発表側端末200の表示領域において、部分画像Cに視線を誘導するための誘導画像R1が表示されてもよい。   The generation unit 55 generates image data for displaying the guidance image R1 for guiding the participant's line of sight to the partial image C that the presenter gazes, and transmits the image data to the participation terminal 300 via the communication processing unit 41. (Step S17). At this time, a guidance image R1 for guiding the line of sight to the partial image C may be displayed in the display area of the presentation side terminal 200.

通信処理部41は、参加側端末300から注視位置の情報を受信する(ステップS18)。注目判断部54は、受信された参加者の注視位置の情報と、部分画像Cのエリアの情報とを比較し、参加者の注視位置が部分画像Cに対応の部分領域内にあるか否かを判断する(ステップS9)。   The communication processing unit 41 receives gaze position information from the participating terminal 300 (step S18). The attention determination unit 54 compares the received information on the gaze position of the participant with the information on the area of the partial image C, and determines whether or not the gaze position of the participant is within the partial region corresponding to the partial image C. Is determined (step S9).

注目判断部54が、参加者の注視位置は、部分画像Cに対応の部分領域内にないと判断すると(ステップS19でNO)、ステップS1に戻る。一方、注目判断部54が、参加者の注視位置は、部分画像Cに対応の部分領域内に在ると判断すると(ステップS19でYES)、CPU20は、誘導画像R1を非表示(誘導画像R1の消去)とするための非表示指令、通信処理部41を介して、参加側端末300に送信する(ステップS21)。   If the attention determination unit 54 determines that the gaze position of the participant is not within the partial area corresponding to the partial image C (NO in step S19), the process returns to step S1. On the other hand, when the attention determination unit 54 determines that the gaze position of the participant is within the partial region corresponding to the partial image C (YES in step S19), the CPU 20 does not display the guidance image R1 (guidance image R1). And the non-display command for sending to the participating terminal 300 via the communication processing unit 41 (step S21).

CPU20は、操作パネル25からの出力に基づき、発表が終了したか否かを判断する(ステップS23)。CPU20は、発表終了ではないと判断すると(ステップS23でNO)、ステップS1に戻るが、発表終了と判断すると(ステップS23でYES)、一連の処理は終了する。   The CPU 20 determines whether or not the presentation has ended based on the output from the operation panel 25 (step S23). If the CPU 20 determines that the presentation is not completed (NO in step S23), the process returns to step S1, but if it is determined that the presentation is completed (YES in step S23), the series of processing ends.

図9の処理によれば、発表側端末200は、参加側端末300から受信する参加者の注視位置に基づき、発表者が指示する部分画像Cに対応の部分領域内になく、部分画像Cへの注目がなされていないと判断するときは、参加者の視線を部分画像Cに誘導するための誘導画像R1を表示するよう参加側端末300を制御する。これにより、発表者は、発表者の意図する部分画像C(C2)の情報に、参加者の注目を促すことが可能となる。   According to the processing in FIG. 9, the presentation side terminal 200 is not in the partial area corresponding to the partial image C indicated by the presenter based on the gaze position of the participant received from the participation side terminal 300, but instead to the partial image C. When it is determined that no attention has been made, the participant terminal 300 is controlled to display a guide image R1 for guiding the participant's line of sight to the partial image C. Thereby, the presenter can prompt the participant to pay attention to the information of the partial image C (C2) intended by the presenter.

(参加側端末300の処理フロー)
図10は、実施の形態1に係る参加側端末300の表示制御方法の処理フローチャートである。フローチャートに従うプログラムは、ROM31等に格納される。CPU30が、プログラムを読出し、実行することにより処理が実現される。
(Processing flow of participating terminal 300)
FIG. 10 is a process flowchart of the display control method of participating terminal 300 according to Embodiment 1. A program according to the flowchart is stored in the ROM 31 or the like. The processing is realized by the CPU 30 reading and executing the program.

表示領域(ディスプレイ36または投影面33B)に画像が表示されている場合において、視線検出部61および位置判定部62により、参加者の注視位置の情報が取得される(ステップS31)。通信処理部70は、取得された注視位置の情報を発表側端末200に送信する(ステップS33)。   When an image is displayed on the display area (display 36 or projection surface 33B), the gaze detection unit 61 and the position determination unit 62 obtain information on the gaze position of the participant (step S31). The communication processing unit 70 transmits the acquired gaze position information to the presentation side terminal 200 (step S33).

通信処理部70は、発表側端末200から誘導画像R1の情報を受信するか否かを判断する(ステップS35)。誘導画像R1の情報が受信されると(ステップS35でYES)、表示処理部64は、誘導画像R1の表示処理を実施する(ステップS37)。具体的には、表示処理部64は受信した誘導画像R1を表示領域の画像に重畳して表示するための画像データを生成し、表示制御部38またはプロジェクターI/F33に出力する。これにより、表示領域(ディスプレイ36または投影面33B)の画像に、発表者が注視する部分画像Cに対応した部分画像(図3の部分画像C2など)に視線を誘導するための誘導画像R1が表示される。   The communication processing unit 70 determines whether or not information on the guidance image R1 is received from the presentation side terminal 200 (step S35). When the information on the guide image R1 is received (YES in step S35), the display processing unit 64 performs display processing of the guide image R1 (step S37). Specifically, the display processing unit 64 generates image data for displaying the received guide image R1 superimposed on the image in the display area, and outputs the image data to the display control unit 38 or the projector I / F 33. As a result, the guide image R1 for guiding the line of sight to the partial image (such as the partial image C2 in FIG. 3) corresponding to the partial image C that the presenter gazes on the image of the display area (display 36 or projection surface 33B) Is displayed.

通信処理部70は、発表側端末200から誘導画像R1の情報を受信していないと判断すると(ステップS35でNO)、発表側端末200から非表示指令を受信するか否かを判断する(ステップS39)。非表示指令を受信しないときは(ステップS39でNO)、ステップS45に移行する。   If the communication processing unit 70 determines that the information of the guidance image R1 is not received from the presentation side terminal 200 (NO in step S35), the communication processing unit 70 determines whether to receive a non-display instruction from the presentation side terminal 200 (step S35). S39). When the non-display command is not received (NO in step S39), the process proceeds to step S45.

非表示指令を受信したときは(ステップS39でYES)、表示処理部64は誘導画像R1を表示中であるか否かを判断する(ステップS41)。誘導画像R1を表示中と判断したとき(ステップS41でYES)、表示処理部64は、誘導画像R1を消去するための画像データを生成し、表示制御部38またはプロジェクターI/F33に出力する。これにより、表示領域(ディスプレイ36または投影面33B)の画像から誘導画像R1が消去される(ステップS43)。その後、ステップS45に移る。   When the non-display command is received (YES in step S39), the display processing unit 64 determines whether or not the guidance image R1 is being displayed (step S41). When it is determined that the guide image R1 is being displayed (YES in step S41), the display processing unit 64 generates image data for deleting the guide image R1 and outputs the image data to the display control unit 38 or the projector I / F 33. As a result, the guide image R1 is erased from the image of the display area (display 36 or projection surface 33B) (step S43). Thereafter, the process proceeds to step S45.

ステップS45では、CPU30は、操作部34からの出力に基づき、処理を終了するか否かを判断する(ステップS45)。終了ではないと判断すると(ステップS45でNO)、ステップS31に戻る。処理終了と判断されると(ステップS45でYES)、一連の処理は終了する。   In step S45, the CPU 30 determines whether or not to end the process based on the output from the operation unit 34 (step S45). If it is determined that the process has not ended (NO in step S45), the process returns to step S31. If it is determined that the process has ended (YES in step S45), the series of processes ends.

図10によれば、視線誘導のための誘導画像R1が表示されることで、参加者は、発表者の意図する部分画像C(C2)に視線が誘導されて、部分画像C(C2)に注目することが可能となる。   According to FIG. 10, by displaying the guide image R1 for guiding the line of sight, the participant is guided to the partial image C (C2) intended by the presenter, and the partial image C (C2). It becomes possible to pay attention.

なお、実施の形態1では、発表者の発表側端末200により表示される画像と、参加者の参加側端末300により表示される画像のサイズは同じであるとしたが、異なっていてもよい。例えば、発表者の画像の表示領域(例えば、投影面203)は、参加者の画像の表示領域(例えば、ディスプレイ36)よりも大きいとしてもよい。その場合に、発表側端末200の表示画像における部分画像Cの情報は、参加側端末300の表示画像のサイズ(拡大率/縮小率)に整合するように変換処理が実施される。   In the first embodiment, the size of the image displayed on the presenter terminal 200 of the presenter is the same as the size of the image displayed on the participant terminal 300 of the participant, but may be different. For example, the display area of the presenter image (for example, the projection plane 203) may be larger than the display area of the participant image (for example, the display 36). In that case, the conversion process is performed so that the information of the partial image C in the display image of the presentation side terminal 200 matches the size (enlargement ratio / reduction ratio) of the display image of the participation side terminal 300.

[実施の形態2]
実施の形態2では、発表者による発表開始からの参加者の注視位置の移動経路(蓄積された注視位置の移動履歴の情報)に基づき、誘導画像R1の表示/非表示を切り替える。図11、図12および図13は、実施の形態2に係る注視位置の移動経路を説明する図である。
[Embodiment 2]
In the second embodiment, display / non-display of the guidance image R1 is switched based on the movement path of the gaze position of the participant from the start of the presentation by the presenter (accumulated information of movement history of the gaze position). FIGS. 11, 12, and 13 are diagrams for explaining a movement path of the gaze position according to the second embodiment.

経路取得部56は、参加者の注視位置の情報から、表示画像上での注視位置の移動経路を取得する。表示処理部50は、取得される移動経路TRを、予め定められた移動経路のパターンと照合し、照合結果に基づき、参加者が部分画像C(C2)を見失っている移動経路のパターンであると判断したとき(図11参照)は、誘導画像R1を表示する。図11では、参加者は、表示画像において部分画像C(C2)を見失っているパターンを示す。この場合は、移動経路は部分画像C(C2)に対応する部分領域を通過することはないために、誘導画像R1を表示する。   The route acquisition unit 56 acquires the movement route of the gaze position on the display image from the information on the gaze position of the participant. The display processing unit 50 collates the acquired travel route TR with a predetermined travel route pattern, and is a travel route pattern in which the participant loses sight of the partial image C (C2) based on the collation result. Is determined (see FIG. 11), the guidance image R1 is displayed. In FIG. 11, the participant shows a pattern in which the partial image C (C2) is lost in the display image. In this case, since the movement route does not pass through the partial area corresponding to the partial image C (C2), the guide image R1 is displayed.

図12は、先読みしている場合には、誘導画像R1を非表示とするケースを示す。図12では、参加者の2つ注視位置C1が示される。表示処理部50は、下段の注視位置C1の移動経路TRを分析し、移動経路TRの履歴が、注視位置C1は部分画像C(C2)を通過している(先読みしている)ことを示すと判断した場合には(図13の移動経路TRを参照)、誘導画像R1を表示しない(非表示とする)。   FIG. 12 shows a case where the guide image R1 is not displayed when prefetching is performed. In FIG. 12, two gaze positions C1 of the participants are shown. The display processing unit 50 analyzes the movement path TR of the lower gaze position C1, and the history of the movement path TR indicates that the gaze position C1 passes through the partial image C (C2) (prefetching). (See the movement route TR in FIG. 13), the guidance image R1 is not displayed (not displayed).

一方、上段の注視位置C1の移動経路TRを分析し、移動経路TRの履歴が、注視位置C1は部分画像C(C2)を未だ通過していなことを示すと判断した場合には、誘導画像R1を表示する。   On the other hand, when the movement path TR of the upper gaze position C1 is analyzed and it is determined that the history of the movement path TR indicates that the gaze position C1 has not yet passed through the partial image C (C2), the guidance image R1 is displayed.

[実施の形態3]
実施の形態3は、発表者が、発表側端末200による画像表示により発表されるべき資料が、電子ファイルで参加者に配布されており、参加者は、発表前に自由に資料を閲覧できるケースを説明する。図14は、実施の形態3に係る注視位置の移動経路を説明するための図である。
[Embodiment 3]
In the third embodiment, the presenter distributes materials to be presented to the participants in an electronic file by displaying images on the presentation side terminal 200, and the participants can freely view the materials before the presentation. Will be explained. FIG. 14 is a diagram for explaining a movement path of the gaze position according to the third embodiment.

参加側端末300では、参加者が、現在の発表箇所以外のページ(前後問わず)を閲覧している場合には、表示処理部60は、各ページの画像毎に注視位置C1の移動経路を取得する。発表者の発表側端末200においてあるページの画像が表示されたときは、表示処理部60は、当該ページの移動経路TRの情報を発表側端末200に送信する。発表側端末200の表示処理部50は、受信した移動経路TRを分析して、部分画像Cを注視した履歴があると判断したときは、誘導画像R1の表示を中止(非表示)するとしてもよい。   In the participant terminal 300, when the participant is browsing a page other than the current presentation location (regardless of before and after), the display processing unit 60 displays the movement path of the gaze position C1 for each image of each page. get. When an image of a page is displayed on the presenter's presenting terminal 200, the display processing unit 60 transmits information on the movement path TR of the page to the presenting terminal 200. When the display processing unit 50 of the presenting terminal 200 analyzes the received travel route TR and determines that there is a history of gazing at the partial image C, the display processing unit 50 may stop (hide) the display of the guidance image R1. Good.

[実施の形態4]
上記の各実施の形態では、発表者と参加者は異なる表示領域を閲覧するとしたが、両者は同じ表示領域を見るとしてもよい。例えば、発表者が、大型スクリーン(プロジェクターの投影面など)で画像を表示して発表する場合に、参加者が参加側端末300を介さずに当該大型スクリーンの画像を見るケースであっても各実施の形態と同様の効果を得ることができる。
[Embodiment 4]
In each of the embodiments described above, the presenter and the participant browse different display areas, but both may view the same display area. For example, when the presenter displays and presents an image on a large screen (projection surface of a projector, etc.), each participant may view the image on the large screen without going through the participant terminal 300. The same effect as the embodiment can be obtained.

図15は、参加側端末300の他の例を示す図である。参加側端末300は、図15に示すようにウェアラブル端末であってもよい。   FIG. 15 is a diagram illustrating another example of the participating terminal 300. Participating terminal 300 may be a wearable terminal as shown in FIG.

[実施の形態5]
実施の形態5では、発表者の成果を確認する方法が示される。実施の形態5では、発表中に、経路取得部56のより取得された参加者の注視位置の移動経路、および誘導画像R1の表示履歴(表示回数、表示された部分画像の識別子など)の情報を、画像毎にメモリに格納する。発表者は、発表終了後に、格納された画像毎の移動経路および誘導画像R1の表示履歴を、ディスプレイ23に表示して確認する。これにより、参加者の発表内容に対する注目の程度を、定量的に把握することが可能となる。
[Embodiment 5]
In the fifth embodiment, a method for confirming the presenter's result is shown. In the fifth embodiment, during the presentation, information on the movement route of the gaze position of the participant acquired by the route acquisition unit 56 and the display history of the guidance image R1 (display count, identifier of the displayed partial image, etc.) Are stored in the memory for each image. After the end of the presentation, the presenter displays the movement path for each stored image and the display history of the guide image R1 on the display 23 and confirms them. Thereby, it becomes possible to grasp | ascertain quantitatively the grade of the attention with respect to the presentation content of a participant.

[実施の形態6]
実施の形態6では、各実施の形態の上述の処理を発表側端末200または参加側端末300に実行させるためのプログラムが提供される。このようなプログラムは、発表側端末200または参加側端末300のコンピュータに付属するフレキシブルディスク、CD−ROM(Compact Disk-Read Only Memory)、ROM、RAMおよびメモリカードなどのコンピュータ読み取り可能な記録媒体にて記録させて、プログラム製品として提供することもできる。あるいは、コンピュータに内蔵するハードディスクなどの記録媒体にて記録させて、プログラムを提供することもできる。また、ネットワークNTを介したダウンロードによって、プログラムを提供することもできる。プログラムは、CPU30(CPU20)などの1つ以上のプロセッサにより、またはプロセッサとASIC(Application Specific Integrated Circuit:特定用途向け集積回路)などの回路との組合わせにより実行される。
[Embodiment 6]
In the sixth embodiment, a program for causing the presentation side terminal 200 or the participation side terminal 300 to execute the above-described processing of each embodiment is provided. Such a program is stored on a computer-readable recording medium such as a flexible disk, a CD-ROM (Compact Disk-Read Only Memory), a ROM, a RAM, and a memory card attached to the computer of the presentation side terminal 200 or the participation side terminal 300. And can be provided as a program product. Alternatively, the program can be provided by being recorded on a recording medium such as a hard disk built in the computer. The program can also be provided by downloading via the network NT. The program is executed by one or more processors such as the CPU 30 (CPU 20) or a combination of a processor and a circuit such as an ASIC (Application Specific Integrated Circuit).

なお、プログラムは、コンピュータのOS(Operating System)の一部として提供されるプログラムモジュールのうち、必要なモジュールを所定の配列で所定のタイミングで呼出して処理を実行させるものであってもよい。その場合、プログラム自体には上記モジュールが含まれずOSと協働して処理が実行される。このようなモジュールを含まないプログラムも、実施の形態6のプログラムに含まれ得る。   Note that the program may be a program module that is provided as part of an OS (Operating System) of a computer and that performs necessary processing by calling necessary modules in a predetermined arrangement at a predetermined timing. In that case, the program itself does not include the module, and the process is executed in cooperation with the OS. A program that does not include such a module can also be included in the program of the sixth embodiment.

提供されるプログラム製品は、ハードディスクなどのプログラム格納部にインストールされて実行される。なお、プログラム製品は、プログラム自体と、プログラムが記録された記録媒体とを含む。   The provided program product is installed in a program storage unit such as a hard disk and executed. The program product includes the program itself and a recording medium on which the program is recorded.

(実施の形態の効果)
上記の各実施の形態によれば、発表者が意図する部分画像に注目がなされていない場合には、参加者の視線を当該部分画像に誘導するための誘導画像R1が表示される。これにより、参加者に対して発表者内容を的確に伝えることが可能となる。
(Effect of embodiment)
According to each of the above embodiments, when attention is not paid to the partial image intended by the presenter, the guide image R1 for guiding the participant's line of sight to the partial image is displayed. As a result, it is possible to accurately convey the presenter contents to the participants.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

23,36 ディスプレイ、24 マイク、25 操作パネル、26,38 表示制御部、27,35 通信コントローラ、28,39 メモリインターフェイス、29,40 メモリカード、33A,202 プロジェクター、33B,203 投影面、34 操作部、37,201 カメラ、41,70 通信処理部、50,60,64 表示処理部、51,61 視線検出部、52,62 位置判定部、52A マッチング部、53 決定部、54 注目判断部、55 生成部、56 経路取得部、63 情報取得部、200 発表側端末、300 参加側端末、C,C2 部分画像、C1,GP 注視位置、E 視点位置、NT ネットワーク、R 半径、R1 誘導画像、S 表示領域。 23, 36 Display, 24 microphone, 25 Operation panel, 26, 38 Display controller, 27, 35 Communication controller, 28, 39 Memory interface, 29, 40 Memory card, 33A, 202 Projector, 33B, 203 Projection plane, 34 operation Unit, 37, 201 camera, 41, 70 communication processing unit, 50, 60, 64 display processing unit, 51, 61 gaze detection unit, 52, 62 position determination unit, 52A matching unit, 53 determination unit, 54 attention determination unit, 55 generation unit, 56 route acquisition unit, 63 information acquisition unit, 200 presentation side terminal, 300 participation side terminal, C, C2 partial image, C1, GP gaze position, E viewpoint position, NT network, R radius, R1 guidance image, S Display area.

Claims (12)

表示領域に表示される画像における第1ユーザーが注視する注視位置を判定する判定部と、
前記画像における第2ユーザーが指定する部分画像の情報を取得する情報取得部と、
前記表示領域に前記画像を表示中において判定される前記注視位置と前記部分画像の領域の情報とに基づき、前記部分画像が前記第1ユーザーにより注目されているか否かを判断する判断部と、を備え、
前記部分画像は注目されていないと判断された場合に、前記表示領域において前記部分画像に視線を誘導するための誘導画像を表示する、表示システム。
A determination unit that determines a gaze position at which the first user gazes in an image displayed in the display area;
An information acquisition unit for acquiring information of a partial image designated by the second user in the image;
A determination unit that determines whether or not the partial image is attracted attention by the first user based on the gaze position determined during display of the image in the display region and information on the region of the partial image; With
A display system that displays a guide image for guiding a line of sight to the partial image in the display area when it is determined that the partial image is not focused.
前記表示領域は、前記第1ユーザーに対して前記画像を表示する第1表示領域と、前記第2ユーザーに対して前記画像を表示する第2表示領域と、を含み、
前記判定部は、前記第1表示領域における第1ユーザーが注視する注視位置を判定し、
前記情報取得部は、前記第2表示領域に表示される画像における第2ユーザーが指定する部分画像の情報を取得し、
前記判断部は、前記第1表示領域に前記画像を表示中において判定される前記注視位置と前記部分画像の領域の情報とに基づき、前記部分画像が前記第1ユーザーにより注目されているか否かを判断し、
前記表示システムは、
前記部分画像は注目されていないと判断された場合に、前記第1表示領域において前記誘導画像を表示する、請求項1に記載の表示システム。
The display area includes a first display area for displaying the image for the first user, and a second display area for displaying the image for the second user,
The determination unit determines a gaze position at which the first user gazes in the first display area,
The information acquisition unit acquires partial image information specified by a second user in an image displayed in the second display area,
The determination unit determines whether or not the partial image is noticed by the first user based on the gaze position determined during display of the image in the first display area and information on the partial image area. Judging
The display system includes:
The display system according to claim 1, wherein the guide image is displayed in the first display area when it is determined that the partial image is not focused.
前記表示領域は、前記画像を表示するための画面上の領域、または前記画像を投影するための投影面上の領域を含む、請求項1または2に記載の表示システム。   The display system according to claim 1, wherein the display area includes an area on a screen for displaying the image or an area on a projection plane for projecting the image. 前記情報取得部は、
前記表示領域の画像が示す情報のうち、前記第2ユーザーが発話する音声にマッチングする部分情報を検出するマッチング部と、
前記第2ユーザーの視線情報を取得する視線取得部と、を有し、
前記第2ユーザーが指定する部分画像は、取得される視線情報に基づく前記表示領域における注視位置に対応する部分画像、またはポインタ画像が重畳表示される部分画像、または前記音声とマッチングする部分情報を表示する部分画像を含む、請求項2または3に記載の表示システム。
The information acquisition unit
Of the information indicated by the image of the display area, a matching unit that detects partial information that matches the voice spoken by the second user;
A line-of-sight acquisition unit that acquires line-of-sight information of the second user,
The partial image designated by the second user is a partial image corresponding to the gaze position in the display area based on the acquired line-of-sight information, a partial image on which a pointer image is superimposed and displayed, or partial information that matches the sound. The display system of Claim 2 or 3 containing the partial image to display.
前記第1ユーザーの前記表示領域に向けられた視線を示す視線情報を検出する視線検出部と、をさらに備え、
前記判定部は、検出された前記視線情報から前記注視位置を判定する、請求項1から4のいずれか1項に記載の表示システム。
A line-of-sight detection unit that detects line-of-sight information indicating the line of sight directed to the display area of the first user,
The display system according to claim 1, wherein the determination unit determines the gaze position from the detected line-of-sight information.
前記判断部は、
前記注視位置と前記部分画像の領域との距離または当該領域に前記注視位置が存在した時間の少なくとも一方に基づき、前記注目がなされているか否かを判断する、請求項1から5のいずれか1項に記載の表示システム。
The determination unit
6. The apparatus according to claim 1, wherein whether or not the attention is made is determined based on at least one of a distance between the gaze position and the area of the partial image or a time when the gaze position exists in the area. The display system according to item.
前記画像における前記注視位置の移動経路の履歴を取得する経路取得部を、さらに含み、
前記移動経路が、前記注視位置は前記画像の前記部分画像の領域を通過した履歴を示す場合は、前記誘導画像を非表示にする、請求項1から6のいずれか1項に記載の表示システム。
A route acquisition unit that acquires a history of a movement route of the gaze position in the image;
The display system according to any one of claims 1 to 6, wherein the guide image is hidden when the movement path indicates a history in which the gaze position has passed the region of the partial image of the image. .
前記移動経路の履歴が、前記注視位置は前記部分画像の領域を通過したことを示さないときは、前記誘導画像を表示する、請求項7に記載の表示システム。   The display system according to claim 7, wherein the guidance image is displayed when the history of the movement route does not indicate that the gaze position has passed the region of the partial image. 前記誘導画像の種類は、前記部分画像に向けられた矢印の画像、または前記部分画像の方向へ移動するカーソルの画像、または前記部分画像を強調する画像、または前記部分画像が表す情報をポップアップ表示する画像を含む、請求項1から8のいずれか1項に記載の表示システム。   The type of the guide image is a pop-up display of an arrow image directed toward the partial image, a cursor image moving in the direction of the partial image, an image that emphasizes the partial image, or information represented by the partial image The display system according to claim 1, comprising an image to be displayed. 前記表示領域のサイズに基づき、表示される前記誘導画像の種類を変更する、請求項9に記載の表示システム。   The display system according to claim 9, wherein a type of the guide image to be displayed is changed based on a size of the display area. 表示制御方法をコンピュータに実行させるためのプログラムであって、
前記表示制御方法は、
表示領域に表示される画像における第1ユーザーが注視する注視位置を取得するステップと、
前記画像における第2ユーザーが指定する部分画像の情報を取得するステップと、
前記表示領域に前記画像を表示中において取得される前記注視位置と前記部分画像の領域の情報とに基づき、前記部分画像が前記第1ユーザーにより注目されているか否かを判断するステップと、
前記部分画像は注目されていないと判断された場合に、前記表示領域において前記部分画像に視線を誘導するための画像を表示するステップと、を備える、プログラム。
A program for causing a computer to execute a display control method,
The display control method includes:
Obtaining a gaze position at which the first user gazes in an image displayed in the display area;
Obtaining information of a partial image designated by a second user in the image;
Determining whether or not the partial image is being noticed by the first user based on the gaze position acquired during display of the image in the display region and information on the region of the partial image;
And a step of displaying an image for guiding a line of sight to the partial image in the display area when it is determined that the partial image is not focused.
表示領域に表示される画像における第1ユーザーが注視する注視位置を取得するステップと、
前記画像における第2ユーザーが指定する部分画像の情報を取得するステップと、
前記表示領域に前記画像を表示中において取得される前記注視位置と前記部分画像の領域の情報とに基づき、前記部分画像が前記第1ユーザーにより注目されているか否かを判断するステップと、
前記部分画像は注目されていないと判断された場合に、前記表示領域において前記部分画像に視線を誘導するための画像を表示するステップと、を備える、表示制御方法。
Obtaining a gaze position at which the first user gazes in an image displayed in the display area;
Obtaining information of a partial image designated by a second user in the image;
Determining whether or not the partial image is being noticed by the first user based on the gaze position acquired during display of the image in the display region and information on the region of the partial image;
And a step of displaying an image for inducing a line of sight to the partial image in the display area when it is determined that the partial image is not focused.
JP2016220384A 2016-11-11 2016-11-11 Display system, program, and display control method Pending JP2018077417A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016220384A JP2018077417A (en) 2016-11-11 2016-11-11 Display system, program, and display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016220384A JP2018077417A (en) 2016-11-11 2016-11-11 Display system, program, and display control method

Publications (1)

Publication Number Publication Date
JP2018077417A true JP2018077417A (en) 2018-05-17

Family

ID=62149107

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016220384A Pending JP2018077417A (en) 2016-11-11 2016-11-11 Display system, program, and display control method

Country Status (1)

Country Link
JP (1) JP2018077417A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020154460A (en) * 2019-03-18 2020-09-24 株式会社リコー Communication terminal, image communication system, presentation method and program
JP2021002114A (en) * 2019-06-20 2021-01-07 コニカミノルタ株式会社 Support system, support method, and support program
WO2023238703A1 (en) * 2022-06-07 2023-12-14 ソニーグループ株式会社 Information processing device, information processing method, and program

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000184345A (en) * 1998-12-14 2000-06-30 Nec Corp Multi-modal communication aid device
JP2000259535A (en) * 1999-03-08 2000-09-22 Fuji Xerox Co Ltd Window display controller
JP2004220179A (en) * 2003-01-10 2004-08-05 Toshiba Corp Image generation device, image generation method, and image generation program
JP2005208292A (en) * 2004-01-22 2005-08-04 Canon Inc Information presenting apparatus with speech recognizing function
JP2006107281A (en) * 2004-10-07 2006-04-20 Queen Mary & Westfield College Communication supporting apparatus
JP2006251258A (en) * 2005-03-09 2006-09-21 Fuji Xerox Co Ltd Presentation system and presentation support method
JP2012253478A (en) * 2011-06-01 2012-12-20 Konica Minolta Business Technologies Inc Conference support system, conference support device, conference support method, and computer program
JP2015153195A (en) * 2014-02-14 2015-08-24 オムロン株式会社 Gesture recognition device and control method therefor
JP2016103109A (en) * 2014-11-27 2016-06-02 富士通株式会社 Display device, display method and display program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000184345A (en) * 1998-12-14 2000-06-30 Nec Corp Multi-modal communication aid device
JP2000259535A (en) * 1999-03-08 2000-09-22 Fuji Xerox Co Ltd Window display controller
JP2004220179A (en) * 2003-01-10 2004-08-05 Toshiba Corp Image generation device, image generation method, and image generation program
JP2005208292A (en) * 2004-01-22 2005-08-04 Canon Inc Information presenting apparatus with speech recognizing function
JP2006107281A (en) * 2004-10-07 2006-04-20 Queen Mary & Westfield College Communication supporting apparatus
JP2006251258A (en) * 2005-03-09 2006-09-21 Fuji Xerox Co Ltd Presentation system and presentation support method
JP2012253478A (en) * 2011-06-01 2012-12-20 Konica Minolta Business Technologies Inc Conference support system, conference support device, conference support method, and computer program
JP2015153195A (en) * 2014-02-14 2015-08-24 オムロン株式会社 Gesture recognition device and control method therefor
JP2016103109A (en) * 2014-11-27 2016-06-02 富士通株式会社 Display device, display method and display program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020154460A (en) * 2019-03-18 2020-09-24 株式会社リコー Communication terminal, image communication system, presentation method and program
JP7205323B2 (en) 2019-03-18 2023-01-17 株式会社リコー Communication terminal, image communication system, display method, and program
JP2021002114A (en) * 2019-06-20 2021-01-07 コニカミノルタ株式会社 Support system, support method, and support program
WO2023238703A1 (en) * 2022-06-07 2023-12-14 ソニーグループ株式会社 Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
US11093045B2 (en) Systems and methods to augment user interaction with the environment outside of a vehicle
CN109844854B (en) Word Stream Annotation
US8700392B1 (en) Speech-inclusive device interfaces
WO2019216419A1 (en) Program, recording medium, augmented reality presentation device, and augmented reality presentation method
EP3258423A1 (en) Handwriting recognition method and apparatus
KR101563312B1 (en) System for gaze-based providing education content
KR20150135847A (en) Glass type terminal and control method thereof
TW201525772A (en) Display control device, display control method, and program
KR20160038736A (en) Method for providing remark information related to picture and device thereof
JPH10301675A (en) Multimodal interface device and multimodal interface method
JP2005124160A (en) Conference supporting system, information display, program and control method
US10514755B2 (en) Glasses-type terminal and control method therefor
WO2012063561A1 (en) Information notification system, information notification method, information processing device and control method for same, and control program
EP3121688A1 (en) Method and device for displaying image
JP2018077417A (en) Display system, program, and display control method
JP2007213282A (en) Lecturer support device and lecturer support method
CN113936699A (en) Audio processing method, device, equipment and storage medium
US8515173B2 (en) Image processing system, image processing method and computer readable medium
Lee et al. AIGuide: augmented reality hand guidance in a visual prosthetic
WO2018056169A1 (en) Interactive device, processing method, and program
US20170220317A1 (en) Electronic apparatus and control program of electronic apparatus
Stearns HandSight: A Touch-Based Wearable System to Increase Information Accessibility for People with Visual Impairments
WO2020158218A1 (en) Information processing device, information processing method, and program
KR101739792B1 (en) Method and program for transmitting data by mobile device
JP2017016484A (en) Communication system, recording apparatus, terminal device, program, and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190820

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210330