JP7215254B2 - Information processing device, display control method, and program - Google Patents

Information processing device, display control method, and program Download PDF

Info

Publication number
JP7215254B2
JP7215254B2 JP2019046124A JP2019046124A JP7215254B2 JP 7215254 B2 JP7215254 B2 JP 7215254B2 JP 2019046124 A JP2019046124 A JP 2019046124A JP 2019046124 A JP2019046124 A JP 2019046124A JP 7215254 B2 JP7215254 B2 JP 7215254B2
Authority
JP
Japan
Prior art keywords
line
menu
sight
screen
sight position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019046124A
Other languages
Japanese (ja)
Other versions
JP2020149336A (en
Inventor
怜士 川▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2019046124A priority Critical patent/JP7215254B2/en
Publication of JP2020149336A publication Critical patent/JP2020149336A/en
Priority to JP2023006171A priority patent/JP2023033559A/en
Application granted granted Critical
Publication of JP7215254B2 publication Critical patent/JP7215254B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、情報処理装置、表示制御方法、及びプログラムに関する。 The present invention relates to an information processing device, a display control method, and a program.

従来から電子黒板において画面上に所定のペンで筆記やメニュー選択を行う場合に、筆記位置の周辺に一時的に編集モード画像を表示する技術が既に知られている。 2. Description of the Related Art Conventionally, there is already known a technique of temporarily displaying an edit mode image around a writing position when writing or selecting a menu on a screen of an electronic blackboard with a predetermined pen.

この技術では、画面上にペンを接触させて筆記を行うと、その筆記位置の周辺に一時的に編集モード画像が表示されるものであり、筆記者は筆記位置において編集モードの種類を確認することができるというものである(特許文献1参照)。 With this technology, when a pen is brought into contact with the screen and writing is performed, an edit mode image is temporarily displayed around the writing position, and the writer can confirm the type of editing mode at the writing position. (See Patent Document 1).

しかし、従来のように筆記位置の周辺に一時的に編集モード画像を表示する技術は、筆記をしている間は筆記位置の周辺にメニューが表示されるが、筆記者が筆記を行おうとしても、筆記を開始していないと、メニューが表示されない。従って、筆記者は筆記を開始するまで編集モードの種類が分からないので、操作性の点で改善の余地がある。 However, with the conventional technique of temporarily displaying an edit mode image around the writing position, the menu is displayed around the writing position while the writer is writing. However, the menu will not be displayed unless you have started writing. Therefore, since the scribe does not know the type of edit mode until he or she starts writing, there is room for improvement in terms of operability.

本発明は、上記に鑑みてなされたものであって、操作者による筆記メニュー等のメニューの操作性を向上することが可能な情報処理装置、表示制御方法、及びプログラムを提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide an information processing apparatus, a display control method, and a program capable of improving the operability of a menu such as a writing menu by an operator. do.

上述した課題を解決し、目的を達成するために、本発明に係る情報処理装置は、画面上における操作者の視線位置を検出する検出手段と、前記検出手段により検出された前記視線位置と、前記画面上のメニューの位置とが離れている場合に、前記視線位置に前記メニューを近づける制御を行い、前記検出手段により検出された前記視線位置が前記画面の画面外になると前記メニューの位置を元の位置に戻す制御を行う制御手段と、を有することを特徴とする。 In order to solve the above-described problems and achieve the object, an information processing apparatus according to the present invention includes detection means for detecting a line-of-sight position of an operator on a screen, the line-of-sight position detected by the detection means, When the position of the menu on the screen is distant, control is performed to bring the menu closer to the line-of-sight position, and when the line-of-sight position detected by the detection means is out of the screen, the position of the menu is moved. and control means for performing control to return to the original position .

本発明によれば、操作者によるメニューの操作性を向上することが可能になるという効果を奏する。 According to the present invention, it is possible to improve the operability of menus by the operator.

図1は、実施の形態に係る電子黒板の概略構成について説明する図である。FIG. 1 is a diagram illustrating a schematic configuration of an electronic blackboard according to an embodiment. 図2は、電子黒板のメニュー表示制御の機能ブロックの構成の一例を示す図である。FIG. 2 is a diagram showing an example of the functional block configuration for menu display control of the electronic blackboard. 図3は、メニューの表示制御の一例を示すフロー図である。FIG. 3 is a flowchart showing an example of menu display control. 図4は、画面内におけるメニューの表示状態の一例を示すメニュー領域の移動を示す概念図である。FIG. 4 is a conceptual diagram showing movement of the menu area showing an example of the display state of the menu within the screen. 図5は、画面内におけるメニューの表示状態の一例を示すメニュー領域のアイコン等の拡大表示を示す概念図である。FIG. 5 is a conceptual diagram showing an enlarged display of icons and the like in a menu area showing an example of the display state of the menu within the screen.

以下、添付図面を参照しながら、本発明に係る情報処理装置、表示制御方法、及びプログラムの実施の形態を詳細に説明する。なお、本発明に係る情報処理装置の一実施の形態として電子黒板の情報処理装置へ適用した場合の例を示すが、電子黒板の情報処理装置に限定されない。本発明に係る情報処理装置は、表示エリアが広い画面に画面情報を出力する情報処理装置や、その他、PC(Personal Computer)やタブレット端末などにも好適に適用できる。 Hereinafter, embodiments of an information processing apparatus, a display control method, and a program according to the present invention will be described in detail with reference to the accompanying drawings. Although an example in which the information processing apparatus according to the present invention is applied to an electronic blackboard information processing apparatus is shown as an embodiment of the information processing apparatus according to the present invention, the information processing apparatus is not limited to the electronic blackboard information processing apparatus. The information processing apparatus according to the present invention can be suitably applied to an information processing apparatus that outputs screen information on a screen with a wide display area, a PC (Personal Computer), a tablet terminal, and the like.

(実施の形態)
図1は、実施の形態に係る電子黒板の概略構成について説明する図である。図1に示されているように、電子黒板2は、CPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203、SSD(Solid State Drive)204、ネットワークI/F205、及び、外部機器接続I/F(Interface)206を備えている。
(Embodiment)
FIG. 1 is a diagram illustrating a schematic configuration of an electronic blackboard according to an embodiment. As shown in FIG. 1, the electronic whiteboard 2 includes a CPU (Central Processing Unit) 201, a ROM (Read Only Memory) 202, a RAM (Random Access Memory) 203, an SSD (Solid State Drive) 204, a network I/ F205 and an external device connection I/F (Interface) 206 are provided.

CPU201はアプリケーションを実行して電子黒板2の動作全体を制御する。ROM202には主に起動時にCPU201が実行するプログラムが記憶されている。RAM203は、CPU201がアプリケーションを実行する際のワークエリアとなる。SSD204は、電子黒板用のアプリケーションやデータ等が記憶された不揮発メモリである。電子黒板用のアプリケーションには、視線検出とメニュー表示制御を行うプログラムなども含まれる。ネットワークI/F205は、ネットワークを介してサーバなどと通信する際に通信プロトコルに基づく処理を行う。なお、ネットワークは、LAN(Local Area Network)やインターネットなどである。 The CPU 201 executes applications and controls the entire operation of the electronic blackboard 2 . The ROM 202 mainly stores programs executed by the CPU 201 at startup. A RAM 203 serves as a work area when the CPU 201 executes an application. The SSD 204 is a non-volatile memory that stores applications, data, etc. for the electronic blackboard. Applications for electronic blackboards include programs for line-of-sight detection and menu display control. A network I/F 205 performs processing based on a communication protocol when communicating with a server or the like via a network. Note that the network is a LAN (Local Area Network), the Internet, or the like.

外部機器接続I/F206は、各種の外部機器を接続するためのインターフェースである。外部機器は、例えば、外付け機器(マイク240、スピーカ250など)である。また、例えば着脱可能な外部メモリを接続し、外部メモリに対する書き込み又は外部メモリからの読み出しを行う。外部メモリは、例えばUSB(Universal Serial Bus)メモリ230やSDカードなどである。 The external device connection I/F 206 is an interface for connecting various external devices. The external device is, for example, an external device (microphone 240, speaker 250, etc.). Also, for example, a detachable external memory is connected, and writing to or reading from the external memory is performed. The external memory is, for example, a USB (Universal Serial Bus) memory 230 or an SD card.

また、電子黒板2は、キャプチャデバイス211、GPU(Graphics Processing Unit)212、ディスプレイコントローラ213、接触センサ214、センサコントローラ215、電子ペンコントローラ216、視線検出用カメラコントローラ217、撮影カメラコントローラ218、近距離通信回路219、及び近距離通信回路219のアンテナ219a、電源スイッチ222及び選択スイッチ類223を備えている。 The electronic blackboard 2 also includes a capture device 211, a GPU (Graphics Processing Unit) 212, a display controller 213, a contact sensor 214, a sensor controller 215, an electronic pen controller 216, a line-of-sight detection camera controller 217, a photographing camera controller 218, a short distance A communication circuit 219 , an antenna 219 a of the short-range communication circuit 219 , a power switch 222 and selection switches 223 are provided.

キャプチャデバイス211は、外付けのPC270が表示装置に表示している映像を取り込む(キャプチャする)。GPU212は、ディスプレイ280の各ピクセルの画素値を演算する描画専用のプロセッサである。ディスプレイコントローラ213は、GPU212が作成した画像をディスプレイ280に出力する。 The capture device 211 takes in (captures) the image displayed on the display device by the external PC 270 . The GPU 212 is a processor dedicated to drawing that calculates the pixel value of each pixel on the display 280 . The display controller 213 outputs the image created by the GPU 212 to the display 280 .

センサコントローラ215は、接触センサ214から出力された信号に基づき、ペンや指などが接触した位置(画面上の位置)を検出する。接触位置の検出は、赤外線遮断方式で検出する。なお、赤外線遮断方式に限らず、静電容量の変化により接触位置を検出する静電容量方式や、対向する2つの抵抗膜の電圧変化によって接触位置を検出する抵抗膜方式や、電磁誘導方式など、適宜検出方式を選択してよい。 The sensor controller 215 detects the position (position on the screen) touched by the pen or finger based on the signal output from the contact sensor 214 . The contact position is detected by an infrared shielding method. In addition to the infrared blocking method, a capacitance method that detects the contact position by changing the capacitance, a resistive film method that detects the contact position by changing the voltage of two opposing resistive films, an electromagnetic induction method, etc. , the detection method may be selected as appropriate.

電子ペンコントローラ216は、電子ペン290と通信する。例えば、電子ペンコントローラ216は、電子ペン290から姿勢や位置を示す情報を取得することで、電子ペンの使用状態や、電子ペン290が使用されている位置などを判断する。 Electronic pen controller 216 communicates with electronic pen 290 . For example, the electronic pen controller 216 acquires information indicating the orientation and position from the electronic pen 290 to determine the state of use of the electronic pen, the position at which the electronic pen 290 is being used, and the like.

電子ペン290は、ジャイロセンサなどを備え、電子ペンコントローラ216と通信する。電子ペン290は、筆記者に持たれるなどして姿勢の変化を検知すると、その信号を電子ペンコントローラ216に送信する。例えば電子ペンコントローラ216と電子ペン290とは、それぞれ近距離無線通信等により通信を行う通信手段(送信手段と受信手段)を備え、電子ペン290で送信手段により姿勢変化を示す信号を送信し、電子ペンコントローラ216では、その信号を受信手段で受信し、姿勢変化があったことを検出する。 Electronic pen 290 includes a gyro sensor or the like, and communicates with electronic pen controller 216 . When the electronic pen 290 detects a change in posture, such as by being held by a writer, it transmits a signal to the electronic pen controller 216 . For example, the electronic pen controller 216 and the electronic pen 290 each include communication means (transmitting means and receiving means) for performing communication by short-range wireless communication or the like, and the electronic pen 290 transmits a signal indicating a change in posture from the transmitting means, In the electronic pen controller 216, the receiving means receives the signal and detects that the posture has changed.

視線検出用カメラコントローラ217はカメラ(視線検出用カメラ220)を制御し、その撮影画像から人の視線情報を取得する。視線検出は、例えば目頭を基準点、虹彩を動点にして視線検出する方法や、角膜反射を基準点、瞳孔を動点にして視線検出する方法などがある。前者の方法で視線検出する場合、視線検出用カメラ220として可視カメラを使用する。後者の方法で視線検出する場合、視線検出用カメラ220として赤外線の照射装置と赤外線カメラとを組み合わせて使用する。視線検出用カメラコントローラ217は、視線検出用カメラ220から出力されてくるフレーム画像から、上記の方法や、その他の公知の視線検出方法により、視線検出用カメラ220に対する人の視線の方向をリアルタイムに算出する。 The line-of-sight detection camera controller 217 controls the camera (the line-of-sight detection camera 220) and acquires the line-of-sight information of the person from the captured image. For line-of-sight detection, there are, for example, a line-of-sight detection method using the inner corner of the eye as a reference point and the iris as a moving point, and a line-of-sight detection method using the corneal reflection as a reference point and the pupil as a moving point. When detecting the line of sight by the former method, a visible camera is used as the camera 220 for line of sight detection. When the line of sight is detected by the latter method, an infrared irradiation device and an infrared camera are used in combination as the line of sight detection camera 220 . The line-of-sight detection camera controller 217 detects in real time the direction of the person's line of sight with respect to the line-of-sight detection camera 220 from the frame images output from the line-of-sight detection camera 220 by the above method or other known line-of-sight detection methods. calculate.

撮影カメラコントローラ218はカメラ(撮影カメラ210)を制御し、撮影画像を取得する。なお、撮影カメラ210と視線検出用カメラ220とは同期をとって撮影することが望ましい。また、撮影カメラ210と視線検出用カメラ220とを並べて配置し、同じ向き、同じ画角を範囲に撮影することにより、それぞれの座標空間の変換処理を省略することもできる。 The photographing camera controller 218 controls the camera (the photographing camera 210) and acquires a photographed image. It is desirable that the photographing camera 210 and the line-of-sight detection camera 220 are synchronously photographed. Further, by arranging the photographing camera 210 and the line-of-sight detection camera 220 side by side and photographing in the same direction and the same field angle, it is possible to omit the transformation processing of each coordinate space.

撮影カメラ210は、RGB等の可視光フィルタを設けたCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像センサを有し、所定のフレームレートで撮影範囲を撮影したフレーム画像を転送する。 The imaging camera 210 has an imaging sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) provided with a visible light filter such as RGB, and transfers a frame image obtained by imaging an imaging range at a predetermined frame rate. do.

視線検出用カメラ220は、例えば赤外線カメラであれば、赤外線照射装置を有し、赤外線照射装置が照射した光の反射光を赤外線を通過させる赤外フィルタを介して撮像センサで受光し、所定のフレームレートで撮影範囲を撮影したフレーム画像を転送する。 The line-of-sight detection camera 220 is, for example, an infrared camera, and has an infrared irradiation device. Transfers frame images captured in the shooting range at the frame rate.

近距離通信回路219は、NFC(Near Field Communication)やBluetooth(登録商標)等の通信回路である。電源スイッチ222は、電子黒板2の電源のON/OFFを切り換えるためのスイッチである。選択スイッチ類223は、例えば、ディスプレイ280の表示の明暗や色合い等を調整するためのスイッチ群である。CPU201等を電気的に接続するバスライン210は、アドレスバスやデータバス等である。 The short-range communication circuit 219 is a communication circuit such as NFC (Near Field Communication) or Bluetooth (registered trademark). The power switch 222 is a switch for switching ON/OFF of the power of the electronic blackboard 2 . The selection switches 223 are, for example, a group of switches for adjusting the brightness and color of the display on the display 280 . A bus line 210 electrically connecting the CPU 201 and the like is an address bus, a data bus, or the like.

(機能ブロック)
CPU201はSSD204などが記憶するアプリケーションを実行することにより、電子黒板2の各種機能を実現する。電子黒板2の各種機能には、入力受付や表示などの基本機能の他に、各種の編集機能などを有する。これら編集機能は、ディスプレイ280の表示画面の一部のメニュー領域にアイコンとしてまとめられ表示される。操作者は、そのメニュー領域のアイコンの中から機能を選択し、選択した機能で筆記を行うことができる。本実施の形態では、主に、その表示されるメニュー領域の表示制御を行う機能について説明する。なお、上記操作者のことを、筆記の例を示すため筆記者として説明する。
(function block)
The CPU 201 implements various functions of the electronic blackboard 2 by executing applications stored in the SSD 204 or the like. Various functions of the electronic blackboard 2 include basic functions such as input acceptance and display, as well as various editing functions. These editing functions are grouped and displayed as icons in a partial menu area of the display screen of the display 280 . The operator can select a function from the icons in the menu area and write with the selected function. In the present embodiment, mainly the function of controlling the display of the displayed menu area will be described. Note that the above operator will be described as a writer in order to show an example of writing.

図2は、電子黒板2のメニュー表示制御の機能ブロックの構成の一例を示す図である。図2には、メニュー表示制御を行う制御部10の機能として視線算出部11と、判定部12と、メニュー表示制御部13とを示している。 FIG. 2 is a diagram showing an example of the configuration of functional blocks for menu display control of the electronic blackboard 2. As shown in FIG. FIG. 2 shows a line-of-sight calculation unit 11, a determination unit 12, and a menu display control unit 13 as functions of the control unit 10 that controls menu display.

視線算出部11は、ディスプレイ280の画面に設定した2次元座標平面のどの座標に視線が対応するかを算出する。予め条件を設定しておくことにより、視線算出部11は、視線検出用カメラコントローラ217からのリアルタイムの視線情報を利用することで、最低限の視線算出は行えるが、ここでは撮影カメラコントローラ218からのリアルタイムの撮影画像も利用し、より正確な視線算出を行う例を示す。 The line-of-sight calculation unit 11 calculates which coordinate of the two-dimensional coordinate plane set on the screen of the display 280 corresponds to the line of sight. By setting conditions in advance, the line-of-sight calculation unit 11 can perform a minimum line-of-sight calculation by using real-time line-of-sight information from the camera controller 217 for line-of-sight detection. This is an example of more accurate line-of-sight calculation using real-time captured images.

例えば、視線算出部11は、視線検出用カメラコントローラ217からのリアルタイムの視線情報と、撮影カメラコントローラ218からのリアルタイムの撮影画像(フレーム画像)とに基づき、ディスプレイ280の画面上の筆記者の視線の位置(座標)を随時求める。具体的には、視線算出部11は、撮影カメラ210と視線検出用カメラ220の設置位置およびそれぞれの向きの情報が予め設定されているとする。視線算出部11は、撮影カメラ210の撮影画像から、ディスプレイ280の画面に対して垂線方向の筆記者の距離と、画面の2次元座標平面における顔(特に目)などの座標を画像解析して算出する。筆記者は、画像解析から特定してもよいし、ペンなどの信号を受信して筆記者を特定しもよい。また、筆記者の距離は予め固定としてもよいし、測距センサを設けて測定してもよい。 For example, the line-of-sight calculation unit 11 calculates the line-of-sight of the writer on the screen of the display 280 based on real-time line-of-sight information from the line-of-sight detection camera controller 217 and real-time captured images (frame images) from the photographing camera controller 218. The position (coordinates) of is obtained at any time. Specifically, it is assumed that the line-of-sight calculation unit 11 is preset with information about the installation positions and orientations of the photographing camera 210 and the line-of-sight detection camera 220 . The line-of-sight calculation unit 11 analyzes the distance of the writer in the direction perpendicular to the screen of the display 280 and the coordinates of the face (especially the eyes) on the two-dimensional coordinate plane of the screen from the image captured by the camera 210. calculate. The scribe may be identified from image analysis or by receiving a signal such as a pen to identify the scribe. Also, the distance of the writer may be fixed in advance, or may be measured by providing a distance measuring sensor.

視線算出部11は、視線検出用カメラ220の設置位置および向きの情報から、視線検出用カメラコントローラ217からの視線情報がディスプレイ280の画面に対するどの向きを表すか座標変換する。 The line-of-sight calculation unit 11 performs coordinate conversion to determine the orientation of the line-of-sight information from the line-of-sight detection camera controller 217 with respect to the screen of the display 280 based on the installation position and orientation information of the line-of-sight detection camera 220 .

そして、視線算出部11は、座標変換後の視線の方向とディスプレイ280に対する筆記者の位置とから、ディスプレイ280の画面に設定した2次元座標平面上の視線の位置の中心座標(以下「視線の位置座標」とする)を求める。 Then, the line-of-sight calculation unit 11 calculates the center coordinates of the line-of-sight position on the two-dimensional coordinate plane set on the screen of the display 280 from the direction of the line-of-sight after the coordinate conversion and the position of the writer with respect to the display 280 (hereinafter referred to as "line-of-sight position coordinates”).

判定部12は、視線算出部11が筆記者の動きに合わせてリアルタイムに算出する筆記者の視線の位置座標と所定の比較対象領域とを比較し、筆記者の視線の位置座標と比較対象領域との位置関係について判定する。 The determination unit 12 compares the position coordinates of the line of sight of the writer calculated in real time according to the movement of the writer by the line of sight calculation unit 11 with a predetermined comparison target area, and determines the position coordinates of the line of sight of the writer and the comparison target area. Determine the positional relationship with

メニュー表示制御部13は、メニューの表示位置やアイコンの表示を制御する。 The menu display control unit 13 controls the display position of menus and the display of icons.

ここで、視線算出部11は、視線検出用カメラコントローラ217や撮影カメラコントローラ218などを含めて「検出手段」に相当する。判定部12やメニュー表示制御部13は「制御手段」に相当する。 Here, the line-of-sight calculation unit 11, including the line-of-sight detection camera controller 217, the photographing camera controller 218, and the like, corresponds to "detection means". The determination unit 12 and the menu display control unit 13 correspond to "control means".

(メニュー表示制御の方法)
次に、制御部10によるメニューの表示制御の方法について説明する。本実施の形態の電子黒板2は、起動後、電子黒板2の画面(ディスプレイ280の画面)の初期設定位置にメニューを表示し、筆記者の視線検出を開始する。筆記者は、電子黒板2の画面に筆記を行おうとする場合、まず電子ペン290をとり、画面の筆記しようとする位置に視線を合わせて、その筆記位置にペン先をあてて筆記を開始する。従って、筆記者の視線の先が画面内であれば、これから筆記を行おうとしている状態にあると予測することができる。電子黒板2の制御部10は、筆記者の視線を追従し、筆記者が筆記しようとする位置に応じてメニューを筆記者の筆記位置付近に移動する制御を行う。また、筆記者1の視線の先がメニュー内であれば筆記者の次の操作としてメニューボタンを選択すると予測することができる。従って、制御部10は、筆記者がメニューボタンを選択しようとメニュー内に視線を向けた場合に、視線を向けたメニューボタンのアイコンの拡大表示や、説明(機能名や補足説明等)表示を行う。また、筆記者が画面から視線を外す場合は、筆記やメニュー選択とは別の動作が行われると予測することができる。この場合、電子黒板2の制御部10は、メニューを元の位置に戻す制御を行うことで、画面を見やすくする。
(Menu display control method)
Next, a method of controlling display of menus by the control unit 10 will be described. After being activated, the electronic blackboard 2 of the present embodiment displays a menu at the initial setting position on the screen of the electronic blackboard 2 (the screen of the display 280), and starts detecting the line of sight of the writer. When writing on the screen of the electronic blackboard 2, the writer first picks up the electronic pen 290, aligns his/her line of sight with the position on the screen where he/she wishes to write, and places the tip of the pen on the writing position to start writing. . Therefore, if the destination of the line of sight of the writer is within the screen, it can be predicted that the writer is about to start writing. The control unit 10 of the electronic blackboard 2 follows the line of sight of the writer and performs control to move the menu to the vicinity of the writing position of the writer according to the position where the writer intends to write. Also, if the destination of the line of sight of the writer 1 is within the menu, it can be predicted that the writer will select the menu button as the next operation. Therefore, when the writer directs his/her line of sight into the menu to select a menu button, the control unit 10 enlarges the icon of the menu button to which the line of sight is directed and displays an explanation (function name, supplementary explanation, etc.). conduct. Also, when the writer looks away from the screen, it can be predicted that an action other than writing or menu selection will be performed. In this case, the control unit 10 of the electronic blackboard 2 makes the screen easier to see by performing control to return the menu to its original position.

図3は、メニューの表示制御の一例を示すフロー図である。図4と図5は、画面内におけるメニューの表示状態の一例を示す概念図である。図4にはメニュー領域の移動の概念図を示し、図5にはメニュー領域のアイコン等の拡大表示の概念図を示している。以下では、図3のメニューの表示制御のフローを、図4と図5のメニューの表示状態を適宜参照しながら説明する。 FIG. 3 is a flowchart showing an example of menu display control. 4 and 5 are conceptual diagrams showing an example of the display state of the menu within the screen. FIG. 4 shows a conceptual diagram of movement of the menu area, and FIG. 5 shows a conceptual diagram of enlarged display of icons and the like in the menu area. Below, the flow of the menu display control shown in FIG. 3 will be described with reference to the menu display states shown in FIGS. 4 and 5 as appropriate.

図3において、視線検出の開始後、制御部10は、筆記者の視線を検出したかを判定する(ステップS1)。本例では、制御部10は、視線検出用カメラコントローラ217により取得した視線情報と撮影カメラコントローラ218により取得した撮影画像を基に筆記者の視線を検出する。筆記者が撮影画像の外側にいたり、筆記者がカメラ(撮影カメラや視線検出用カメラ)側に顔を向けていなかったりすると、視線を検出することができない。また、撮影画像や視線情報の中に筆記者以外に不特定多数の人が含まれる場合もあり、その場合には、その複数の中から筆記者の視線を検出する。筆記者は、例えば電子ペンから送信される筆記者の位置を示す情報や、電子ペンを握っている人物の画像解析や、画像に映りこんでいる人物の大きさなどにより識別することができる。なお、筆記者の視線を検出することができない場合は(ステップS1:No)、その後も筆記者の視線検出を繰り返す。 In FIG. 3, after starting line-of-sight detection, the control unit 10 determines whether the writer's line of sight has been detected (step S1). In this example, the control unit 10 detects the line of sight of the writer based on the line of sight information acquired by the line of sight detection camera controller 217 and the photographed image acquired by the photographing camera controller 218 . If the writer is outside the captured image or if the writer does not face the camera (the camera for photography or the camera for detecting the line of sight), the line of sight cannot be detected. In addition, there are cases where an unspecified number of people other than the writer are included in the photographed image or the line-of-sight information, and in such a case, the line of sight of the writer is detected from among the plurality of people. The writer can be identified by, for example, information indicating the position of the writer transmitted from the electronic pen, image analysis of the person holding the electronic pen, the size of the person reflected in the image, and the like. If the line of sight of the writer cannot be detected (step S1: No), detection of the line of sight of the writer is repeated thereafter.

筆記者の視線を検出した場合(ステップS1:Yes)、制御部10は、続いて視線の位置が画面内のメニュー領域と一致するかを判定する(ステップS2)。 When the line of sight of the writer is detected (step S1: Yes), the control unit 10 then determines whether the position of the line of sight matches the menu area in the screen (step S2).

図4に示すように、メニュー1000は、初期設定では、例えば画面2800(ディスプレイ280の画面)の右端など所定の位置に表示されている。メニュー1000の領域(メニュー領域)が例えば図4に示すメニュー領域1001のような矩形の領域であるとする。便宜的に説明のため、画面2800に対し、横軸をX軸とし、縦軸をY軸とすると、画面2800全体の範囲と、画面2800内の各画素位置はXY座標系で示すことができる。メニュー領域1001のX軸方向の範囲はX座標の範囲で示し、Y軸方向の範囲はY座標の範囲で表せる。 As shown in FIG. 4, the menu 1000 is displayed at a predetermined position such as the right end of the screen 2800 (the screen of the display 280) by default. Assume that the area (menu area) of the menu 1000 is a rectangular area such as the menu area 1001 shown in FIG. For convenience of explanation, the horizontal axis of the screen 2800 is the X axis, and the vertical axis is the Y axis. . The range in the X-axis direction of the menu area 1001 can be represented by the range of X-coordinates, and the range in the Y-axis direction can be represented by the range of Y-coordinates.

ステップS1で筆記者の視線が検出されると、画面2800上における視線の位置1002(座標(Xn、Yn))が求まるため、制御部10は、その視線の位置1002(座標(Xn、Yn))とメニュー領域1001のXY座標範囲((Xp、Yp)~(Xq、Yq))とを比較する。これにより、制御部10は、求めた視線の位置1002とメニュー領域1001のXY座標範囲とが一致するかを判定することができる。ここで、視線の位置1002を示す座標と画面2800上の座標とは基準点が同じであるものとする。また、図4において視線の位置1002は説明のため円で示しているが、その中心座標(Xn、Yn)である。また、(Xn、Yn)、(Xp、Yp)~(Xq、Yq)は、任意の座標点をとり得る。 When the line of sight of the writer is detected in step S1, the line of sight position 1002 (coordinates (Xn, Yn)) on the screen 2800 is obtained. ) and the XY coordinate range ((Xp, Yp) to (Xq, Yq)) of the menu area 1001 are compared. Thereby, the control unit 10 can determine whether the obtained line-of-sight position 1002 and the XY coordinate range of the menu area 1001 match. Here, it is assumed that the coordinates indicating the line-of-sight position 1002 and the coordinates on the screen 2800 have the same reference point. Also, in FIG. 4, the line-of-sight position 1002 is indicated by a circle for the sake of explanation, but its center coordinates are (Xn, Yn). Also, (Xn, Yn), (Xp, Yp) to (Xq, Yq) can take arbitrary coordinate points.

視線とメニュー領域とが一致しない場合(ステップ2:No)、制御部10は、続いて視線の方向がディスプレイ内(つまりディスプレイ280の画面内)であるかを判定する(ステップS3)。画面2800の範囲はXY座標で示すことができるため、視線の位置1002が画面2800の範囲外にある場合に画面2800外ということになる。 If the line of sight does not match the menu area (step 2: No), the control unit 10 subsequently determines whether the direction of the line of sight is within the display (that is, within the screen of the display 280) (step S3). Since the range of the screen 2800 can be indicated by XY coordinates, it is outside the screen 2800 when the line-of-sight position 1002 is outside the range of the screen 2800 .

視線の方向が画面2800内の場合(ステップS3:Yes)、制御部10は、求めた視線の位置1002とメニュー領域1001のXY座標範囲とを比較し、距離が予め設定した閾値を超えているかを判定する(S4)。 If the line-of-sight direction is within the screen 2800 (step S3: Yes), the control unit 10 compares the obtained line-of-sight position 1002 with the XY coordinate range of the menu area 1001 to determine whether the distance exceeds a preset threshold. is determined (S4).

視線の位置1002とメニュー領域1001との距離が閾値を超えて離れている場合(ステップ4:Yes)、制御部10は、視線の位置付近にメニューを移動させる(ステップS5)。 If the distance between the line-of-sight position 1002 and the menu area 1001 exceeds the threshold (step 4: Yes), the control section 10 moves the menu to the vicinity of the line-of-sight position (step S5).

制御部10は、図4に示すように、筆記者1の視線の位置1002から上記閾値であるマージンM1をとって矢印A1のようにメニュー領域1001を移動させる。この場合、制御部10は、メニュー領域1001の基準位置(例えば中心や角など、予め決めた基準位置)とメニュー領域1001の領域幅などを考慮してマージンM1を設定し、筆記者1の筆記の邪魔になることなく筆記の補助となる位置にメニュー領域1001を移動する。例えば、視線の位置1002や筆記する位置には重ならず、筆記者1が視線A2を大きく逸らさずに確認することができる位置(筆記位置付近)に移動する。図4のようにメニュー1000が初期位置にあって、筆記者1の筆記位置がメニュー1000から離れている場合に、このケースとなる。 As shown in FIG. 4, the control unit 10 moves the menu area 1001 in the direction of an arrow A1 by taking a margin M1, which is the above threshold value, from the line of sight position 1002 of the writer 1. FIG. In this case, the control unit 10 sets the margin M1 in consideration of the reference position of the menu area 1001 (for example, a predetermined reference position such as the center or the corner) and the area width of the menu area 1001. The menu area 1001 is moved to a position that assists writing without interfering with writing. For example, it does not overlap with the line-of-sight position 1002 or the writing position, and moves to a position (near the writing position) where the writer 1 can confirm without greatly deviating the line of sight A2. This is the case when the menu 1000 is in the initial position as in FIG.

その後、制御部10は、ステップS1に戻り同様の処理を行う。筆記者1がマージンM1の範囲内で筆記を行えば、視線の位置1002とメニュー領域1001との距離は常に閾値以内(ステップ4:No)となるため、メニュー領域1001は、その位置に配置されたままとなる。一方、筆記者1がマージンM1の範囲を超えて筆記を行えば、視線の位置1002とメニュー領域1001との距離が再び閾値を超えるため、制御部10は、ステップ4で再びYesと判定し、メニュー領域1001を、マージンM1の距離になるように視線の位置1002に近づける。 After that, the control unit 10 returns to step S1 and performs the same processing. If the writer 1 writes within the range of the margin M1, the distance between the line-of-sight position 1002 and the menu area 1001 is always within the threshold (step 4: No), so the menu area 1001 is arranged at that position. remain. On the other hand, if the writer 1 writes beyond the range of the margin M1, the distance between the line-of-sight position 1002 and the menu area 1001 again exceeds the threshold. The menu area 1001 is brought closer to the line-of-sight position 1002 so that the distance is the margin M1.

その後、筆記者1が編集のため、筆記位置の近くに移動してきたメニュー1000のアイコンに視線を向けたとする。制御部10は、視線の位置1002と各アイコンの位置とを比較し、視線の位置1002と何れかのアイコンの位置とが一致すると(ステップS2:Yes)、そのアイコンを拡大表示し、アイコンの機能などの説明を表示する(ステップS6)。 After that, it is assumed that the writer 1 looks at the icon of the menu 1000 that has moved near the writing position for editing. The control unit 10 compares the line-of-sight position 1002 with the position of each icon. A description of functions and the like is displayed (step S6).

図5に示すように、筆記者1の視線の位置1002がメニュー領域1001のアイコン1000-1~アイコン1000-3の何れかに一致すると、そのアイコンが拡大表示される。図5には、視線の位置1002が消しゴムのアイコン1000-1に一致した場合を示している。図5には、拡大されたアイコン1100にアイコンの説明も表示している。例えば、そこで、筆記者1が拡大されたアイコン1100(消しゴムのアイコン)を選択すると、その設定が、その後の筆記の機能に反映される。つまり、この例では消しゴム機能が反映され、画面に筆記した文字等を電子ペンで上からなぞると、文字等が消去される。 As shown in FIG. 5, when the line-of-sight position 1002 of the writer 1 matches any of the icons 1000-1 to 1000-3 in the menu area 1001, that icon is enlarged and displayed. FIG. 5 shows a case where the line-of-sight position 1002 coincides with the eraser icon 1000-1. In FIG. 5, an icon description is also displayed on the enlarged icon 1100 . For example, when the writer 1 selects the enlarged icon 1100 (eraser icon), the setting is reflected in subsequent writing functions. In other words, in this example, the eraser function is reflected, and when characters or the like written on the screen are traced from above with the electronic pen, the characters or the like are erased.

その後は、制御部10は、ステップS1に戻り、例えばステップS2がNo判定となった場合は、拡大したアイコンや説明表示を元の表示状態に戻す。また、ステップS2がYes判定となった場合でも、筆記者1が視線を別のアイコンに移した場合は、拡大していたアイコンや説明表示を元の表示状態に戻し、視線を移動した先のアイコンを拡大表示し説明を表示する。 After that, the control unit 10 returns to step S1, and, for example, when step S2 results in a No determination, restores the enlarged icon and explanation display to the original display state. In addition, even if step S2 is determined as Yes, if the writer 1 shifts the line of sight to another icon, the enlarged icon and explanation display are returned to the original display state, and the Enlarge the icon and display the description.

なお、視線の方向が画面外になると(ステップS3:No)、制御部10は、メニュー1000を初期位置のメニュー領域1001に戻す(ステップS7)。例えば、筆記者が筆記を終え、振り返るなどして画面2800の外側に目を逸らしたり、離れたりする場合などがこのケースとなる。ステップS7の後、制御部10は、ステップS1に戻る。 When the direction of the line of sight is out of the screen (step S3: No), the control section 10 returns the menu 1000 to the initial position of the menu area 1001 (step S7). This is the case, for example, when the scribe finishes writing and turns his/her eyes away from the screen 2800 or leaves the screen. After step S7, the controller 10 returns to step S1.

本実施の形態では、電子黒板2の起動後に視線検出を開始する例を示したが、筆記者が電子ペン290を使うときに、その電子ペン290側から電子黒板2に信号を送り、その信号を電子黒板2が受信してから視線検出を開始するようにしてもよい。その場合、電子ペンで筆記やメニュー操作をしない間は、視線検出を停止することができるので、メニュー表示制御に使用するデバイスの一部の電源をOFFするなどして電力消費を抑えることで省エネの効果を得る。 In the present embodiment, an example is shown in which line-of-sight detection is started after the electronic blackboard 2 is activated. is received by the electronic blackboard 2, the line-of-sight detection may be started. In that case, since it is possible to stop gaze detection while the electronic pen is not used for writing or menu operations, power consumption can be reduced by turning off some of the devices used for menu display control, thereby saving energy. get the effect of

本実施の形態の情報処理装置で実行するプログラムは、ROMに予め組み込んで提供してもよい。また、インストール可能な形式または実行可能な形式のファイルでCD-ROM、フレキシブルディスク(FD)、CD-R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供されてもよい。また、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。 A program to be executed by the information processing apparatus according to the present embodiment may be provided by being incorporated in the ROM in advance. In addition, it is provided by being recorded in a computer-readable recording medium such as a CD-ROM, a flexible disk (FD), a CD-R, a DVD (Digital Versatile Disk), etc. as a file in an installable format or an executable format. good too. Alternatively, the software may be stored on a computer connected to a network such as the Internet, and provided by being downloaded via the network.

(実施の形態の効果)
以上のように、本実施の形態に情報処理装置の一例として示した電子黒板では、筆記者などが筆記する筆記位置にメニューが自動的に移動され、メニューを選択する際にメニューアイコンが自動で拡大表示される。そのため、筆記者による筆記メニューの操作性が格段に向上する。特に、筆記者の視線検出によりメニューの移動や拡大などの表示制御を行うため、筆記者が初期位置など離れた位置に視線を逸らす前にメニューを見やすい位置に移動することができるため、操作性が格段に向上し、筆記にも専念できる。さらには、メニューからアイコンを選択する際、初期位置まで手を伸ばして選択する場合には画面を覆うことになるが、手元の近くで選択できるため、周りの人は画面が常に見やすい状態にすることができる。そして、筆記者が筆記やメニュー選択以外の別の動作を行う場合は、メニューが元の位置に戻るため、メニューで隠れる部分がなくなり画面全体が見やすくなる。
(Effect of Embodiment)
As described above, in the electronic blackboard shown as an example of the information processing apparatus in the present embodiment, the menu is automatically moved to the writing position where the writer or the like writes, and the menu icon is automatically displayed when selecting the menu. Enlarged display. Therefore, the operability of the writing menu by a writer is greatly improved. In particular, since display control such as movement and enlargement of the menu is performed by detecting the line of sight of the writer, it is possible to move the menu to a position where it is easy to see the menu before the line of sight is diverted to a distant position such as the initial position. has improved dramatically, and you can concentrate on writing. Furthermore, when selecting an icon from the menu, if you reach out to the initial position and select it, the screen will be covered, but since you can select it near your hand, the screen will always be easy for people around you to see. be able to. When the scribe performs an operation other than writing or selecting a menu, the menu returns to its original position, so that there is no portion hidden by the menu and the entire screen can be seen easily.

2 電子黒板
10 制御部
11 視線算出部
12 判定部
13 メニュー表示制御部
201 CPU
202 ROM
203 RAM
204 SSD
205 ネットワークI/F
206 外部機器接続I/F
210 撮影カメラ
212 GPU
213 ディスプレイコントローラ
214 接触センサ
215 センサコントローラ
216 電子ペンコントローラ
217 視線検出用カメラコントローラ
218 撮影カメラコントローラ
220 視線検出用カメラ
222 電源スイッチ
223 選択スイッチ類
280 ディスプレイ
290 電子ペン
2 electronic blackboard 10 control unit 11 line-of-sight calculation unit 12 determination unit 13 menu display control unit 201 CPU
202 ROMs
203 RAM
204 SSD
205 Network I/F
206 External device connection I/F
210 Camera 212 GPU
213 display controller 214 contact sensor 215 sensor controller 216 electronic pen controller 217 camera controller for sight line detection 218 photographing camera controller 220 camera for sight line detection 222 power switch 223 selection switches 280 display 290 electronic pen

特開2017-034502号公報JP 2017-034502 A

Claims (7)

画面上における操作者の視線位置を検出する検出手段と、
前記検出手段により検出された前記視線位置と、前記画面上のメニューの位置とが離れている場合に、前記視線位置に前記メニューを近づける制御を行い、前記検出手段により検出された前記視線位置が前記画面の画面外になると前記メニューの位置を元の位置に戻す制御を行う制御手段と、
を有する情報処理装置。
detection means for detecting the line-of-sight position of the operator on the screen;
When the line-of-sight position detected by the detection means is separated from the position of the menu on the screen, control is performed to bring the menu closer to the line-of-sight position, and the line-of-sight position detected by the detection means is adjusted. a control means for controlling the position of the menu to return to its original position when the screen is out of the screen ;
Information processing device having
前記制御手段は、前記検出手段により検出された前記視線位置と、前記画面上のメニューとの距離が閾値を超えていると、前記視線位置に前記メニューを前記閾値以下の距離に近づける、
請求項1に記載の情報処理装置。
When the distance between the line-of-sight position detected by the detection unit and the menu on the screen exceeds a threshold, the control means brings the menu closer to the line-of-sight position than the threshold.
The information processing device according to claim 1 .
前記制御手段は、前記検出手段により検出された前記視線位置と、前記画面上のメニューの位置とが一致する場合に前記メニューを拡大表示する、
請求項1または2に記載の情報処理装置。
The control means enlarges and displays the menu when the line-of-sight position detected by the detection means matches the position of the menu on the screen.
The information processing apparatus according to claim 1 or 2.
前記制御手段は、前記検出手段により検出された前記視線位置と、前記画面上のメニューの位置とが一致する場合に前記メニューの説明を表示する、
請求項1乃至3の内の何れか一項に記載の情報処理装置。
The control means displays the explanation of the menu when the line-of-sight position detected by the detection means matches the position of the menu on the screen.
The information processing apparatus according to any one of claims 1 to 3.
操作者が操作する信号を送信する送信手段と、
前記送信手段により送信される前記信号を受信する受信手段と、
を有し、
前記送信手段により前記信号が送信された場合に、前記検出手段が前記視線位置の検出を開始する、
請求項1乃至の内の何れか一項に記載の情報処理装置。
a transmission means for transmitting a signal operated by an operator;
receiving means for receiving the signal transmitted by the transmitting means;
has
When the signal is transmitted by the transmitting means, the detecting means starts detecting the line-of-sight position .
The information processing apparatus according to any one of claims 1 to 4 .
画面のメニューの表示を制御する表示制御方法であって、
画面上における操作者の視線位置を検出するステップと、
前記検出された視線位置と、前記画面上のメニューの位置とが離れている場合に、前記視線位置に前記メニューを近づける制御を行うステップと、
前記検出された視線位置が前記画面の画面外になると前記メニューの位置を元の位置に戻す制御を行うステップと、
を含む表示制御方法。
A display control method for controlling display of a menu on a screen, comprising:
a step of detecting the line-of-sight position of the operator on the screen;
when the detected line-of-sight position and the position of the menu on the screen are separated, performing control to bring the menu closer to the line-of-sight position;
a step of controlling the position of the menu to return to its original position when the detected line-of-sight position is out of the screen;
display control methods, including
情報処理装置のコンピュータを、
画面上における操作者の視線位置を検出する検出手段と、
前記検出手段により検出された前記視線位置と、前記画面上のメニューの位置とが離れている場合に、前記視線位置に前記メニューを近づける制御を行い、前記検出手段により検出された前記視線位置が前記画面の画面外になると前記メニューの位置を元の位置に戻す制御を行う制御手段、
として機能させるプログラム。
the computer of the information processing device,
detection means for detecting the line-of-sight position of the operator on the screen;
When the line-of-sight position detected by the detection means is separated from the position of the menu on the screen, control is performed to bring the menu closer to the line-of-sight position, and the line-of-sight position detected by the detection means is adjusted. Control means for controlling the position of the menu to return to its original position when the screen is out of the screen ;
A program that acts as a
JP2019046124A 2019-03-13 2019-03-13 Information processing device, display control method, and program Active JP7215254B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019046124A JP7215254B2 (en) 2019-03-13 2019-03-13 Information processing device, display control method, and program
JP2023006171A JP2023033559A (en) 2019-03-13 2023-01-18 Information processing device, display control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019046124A JP7215254B2 (en) 2019-03-13 2019-03-13 Information processing device, display control method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023006171A Division JP2023033559A (en) 2019-03-13 2023-01-18 Information processing device, display control method, and program

Publications (2)

Publication Number Publication Date
JP2020149336A JP2020149336A (en) 2020-09-17
JP7215254B2 true JP7215254B2 (en) 2023-01-31

Family

ID=72429743

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019046124A Active JP7215254B2 (en) 2019-03-13 2019-03-13 Information processing device, display control method, and program
JP2023006171A Pending JP2023033559A (en) 2019-03-13 2023-01-18 Information processing device, display control method, and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023006171A Pending JP2023033559A (en) 2019-03-13 2023-01-18 Information processing device, display control method, and program

Country Status (1)

Country Link
JP (2) JP7215254B2 (en)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000250677A (en) 1999-03-02 2000-09-14 Toshiba Corp Device and method for multimodal interface
JP2001265475A (en) 2000-03-15 2001-09-28 Ricoh Co Ltd Menu display controller and information processor and electronic blackboard system and method for controlling menu display system and method for controlling information processing system and computer readable recording medium with program for allowing the same method to be performed by computer recorded
WO2010089989A1 (en) 2009-02-05 2010-08-12 パナソニック株式会社 Information display device and information display method
JP2013524390A (en) 2010-04-16 2013-06-17 クアルコム,インコーポレイテッド Apparatus and method for dynamically correlating virtual keyboard dimensions to user finger size
JP2013254406A (en) 2012-06-08 2013-12-19 Ntt Docomo Inc Display device, display method and program
WO2014207828A1 (en) 2013-06-25 2014-12-31 富士通株式会社 Information processing device and program
WO2015029554A1 (en) 2013-09-02 2015-03-05 ソニー株式会社 Information processing device, information processing method, and program
WO2015064165A1 (en) 2013-11-01 2015-05-07 ソニー株式会社 Information processing device, information processing method, and program
US20170269722A1 (en) 2015-04-21 2017-09-21 Dell Products L.P. Information Handling System Interactive Totems
JP2017215816A (en) 2016-05-31 2017-12-07 株式会社リコー Information display device, information display system, information display method, and program
JP2018010702A (en) 2017-10-25 2018-01-18 株式会社コナミデジタルエンタテインメント Terminal device and program
JP2018077105A (en) 2016-11-08 2018-05-17 アイシン・エィ・ダブリュ株式会社 Navigation device and navigation program
JP2018084851A (en) 2016-11-21 2018-05-31 コニカミノルタ株式会社 Information processing apparatus and program

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000250677A (en) 1999-03-02 2000-09-14 Toshiba Corp Device and method for multimodal interface
JP2001265475A (en) 2000-03-15 2001-09-28 Ricoh Co Ltd Menu display controller and information processor and electronic blackboard system and method for controlling menu display system and method for controlling information processing system and computer readable recording medium with program for allowing the same method to be performed by computer recorded
WO2010089989A1 (en) 2009-02-05 2010-08-12 パナソニック株式会社 Information display device and information display method
JP2013524390A (en) 2010-04-16 2013-06-17 クアルコム,インコーポレイテッド Apparatus and method for dynamically correlating virtual keyboard dimensions to user finger size
JP2013254406A (en) 2012-06-08 2013-12-19 Ntt Docomo Inc Display device, display method and program
WO2014207828A1 (en) 2013-06-25 2014-12-31 富士通株式会社 Information processing device and program
WO2015029554A1 (en) 2013-09-02 2015-03-05 ソニー株式会社 Information processing device, information processing method, and program
WO2015064165A1 (en) 2013-11-01 2015-05-07 ソニー株式会社 Information processing device, information processing method, and program
US20170269722A1 (en) 2015-04-21 2017-09-21 Dell Products L.P. Information Handling System Interactive Totems
JP2017215816A (en) 2016-05-31 2017-12-07 株式会社リコー Information display device, information display system, information display method, and program
JP2018077105A (en) 2016-11-08 2018-05-17 アイシン・エィ・ダブリュ株式会社 Navigation device and navigation program
JP2018084851A (en) 2016-11-21 2018-05-31 コニカミノルタ株式会社 Information processing apparatus and program
JP2018010702A (en) 2017-10-25 2018-01-18 株式会社コナミデジタルエンタテインメント Terminal device and program

Also Published As

Publication number Publication date
JP2020149336A (en) 2020-09-17
JP2023033559A (en) 2023-03-10

Similar Documents

Publication Publication Date Title
JP5412227B2 (en) Video display device and display control method thereof
US10015402B2 (en) Electronic apparatus
US10477090B2 (en) Wearable device, control method and non-transitory storage medium
WO2014061626A1 (en) Touch panel-type input device, and control method and program thereof
JP6341755B2 (en) Information processing apparatus, method, program, and recording medium
KR101631011B1 (en) Gesture recognition apparatus and control method of gesture recognition apparatus
CN107172347B (en) Photographing method and terminal
JP2013242821A (en) Picture display device and picture operation method of the same
EP3065393A1 (en) System, method, and apparatus for controlling camera operations
JP2018180051A (en) Electronic device and control method thereof
JP2012238293A (en) Input device
CN106796484B (en) Display device and control method thereof
CN105824553A (en) Touch method and mobile terminal
JP6911870B2 (en) Display control device, display control method and computer program
JP2022188192A (en) Head-mounted display device, and control method therefor
JP7215254B2 (en) Information processing device, display control method, and program
US20220244788A1 (en) Head-mounted display
KR102278229B1 (en) Electronic device and its control method
US9300908B2 (en) Information processing apparatus and information processing method
US11265460B2 (en) Electronic device, control device, and control method
JP2019219965A (en) Shared terminal, writing method, and program
JP6197012B2 (en) Information processing apparatus and information processing method
US20200257396A1 (en) Electronic device and control method therefor
JP2018180050A (en) Electronic device and control method thereof
US11727896B2 (en) Apparatus and method for display control, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230102

R151 Written notification of patent or utility model registration

Ref document number: 7215254

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151