JP7279425B2 - DISPLAY DEVICE, DISPLAY SYSTEM, OPERATING MODE CONTROL METHOD, AND PROGRAM - Google Patents

DISPLAY DEVICE, DISPLAY SYSTEM, OPERATING MODE CONTROL METHOD, AND PROGRAM Download PDF

Info

Publication number
JP7279425B2
JP7279425B2 JP2019044139A JP2019044139A JP7279425B2 JP 7279425 B2 JP7279425 B2 JP 7279425B2 JP 2019044139 A JP2019044139 A JP 2019044139A JP 2019044139 A JP2019044139 A JP 2019044139A JP 7279425 B2 JP7279425 B2 JP 7279425B2
Authority
JP
Japan
Prior art keywords
mode
display
display device
person
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019044139A
Other languages
Japanese (ja)
Other versions
JP2020149149A (en
Inventor
竜治 中尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2019044139A priority Critical patent/JP7279425B2/en
Publication of JP2020149149A publication Critical patent/JP2020149149A/en
Application granted granted Critical
Publication of JP7279425B2 publication Critical patent/JP7279425B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、表示装置、表示システム、動作モード制御方法、及び、プログラムに関する。 The present invention relates to a display device, a display system, an operation mode control method, and a program.

電子白板等の表示装置では手書き入力を受け付けて手書き情報を表示するホワイトボードアプリが動作している、このホワイトボードアプリがアクティブな状態と非アクティブな状態が存在する。アクティブとはホワイトボードアプリが動作し、アプリとして期待される動作を行うことをいう。ユーザがディスプレイを操作する場合はホワイトボードアプリがアクティブ状態となり、使用していない間は非アクティブ状態となる。 In a display device such as an electronic whiteboard, a whiteboard application that accepts handwritten input and displays handwritten information is running. This whiteboard application has an active state and an inactive state. Active means that the whiteboard application operates and performs the behavior expected of the application. The whiteboard application is active when the user operates the display, and is inactive when not in use.

この非アクティブ状態における表示装置の振る舞いはさまざまであるが、多くはユーザの操作を待っている状態となる。一例としては、非アクティブ状態ではディスプレイを消灯しておき、ディスプレイが操作される(タッチされる)までの間この状態を続ける表示装置がある。 The behavior of the display device in this inactive state varies, but most of them are in a state of waiting for user's operation. One example is a display device that turns off the display in an inactive state and keeps this state until the display is operated (touched).

また、この非アクティブ状態において表示装置をデジタルサイネージとして活用する技術が考案されている(例えば、特許文献1参照。)。特許文献1には、表示装置が操作されない状態で所定時間放置されると、サイネージアプリが自動的に起動する表示装置が記載されている。 Also, a technique has been devised that utilizes the display device as a digital signage in this inactive state (see, for example, Patent Document 1). Patent Literature 1 describes a display device that automatically activates a signage application when the display device is left unoperated for a predetermined period of time.

しかしながら、従来の表示装置は、周辺に人が存在するか否かに応じて動作モードの遷移を制御できないという問題がある。すなわち、表示装置の周辺に人がいない場合も、表示装置がサイネージアプリを起動して情報を表示する場合があり、単に電力が消費されるだけになる状況が生じていた。 However, conventional display devices have the problem that they cannot control the transition of operation modes depending on whether or not there is a person in the vicinity. That is, even when no one is around the display device, the display device may activate the signage application and display information, resulting in a situation where power is simply consumed.

本発明は、上記課題に鑑み、周辺に人が存在するか否かに応じて動作モードの遷移を制御できる表示装置を提供することを目的とする。 SUMMARY OF THE INVENTION In view of the above problems, it is an object of the present invention to provide a display device that can control the transition of operation modes depending on whether or not there is a person in the vicinity.

上記課題に鑑み、本発明は、手書きデータを表示するホワイトボードモードと、情報をディスプレイに表示するサイネージモードと、ディスプレイを消灯するスタンバイモード、の3つのモードのいずれかで動作し、表示装置のディスプレイが操作されている場合に前記ホワイトボードモードで動作する表示装置であって、前記表示装置の周辺に人が存在するか否かを推定する人推定部と、人が存在するか否かに応じて、動作モードを遷移させる動作モード制御部と、有し、前記ホワイトボードモードで動作している場合に、前記ディスプレイの操作が検出されず、前記人推定部が前記表示装置の周辺に人が存在すると推定した場合、前記動作モード制御部は前記サイネージモードに遷移させ、前記ディスプレイの操作が検出されず、前記人推定部が前記表示装置の周辺に人が存在しないと推定した場合、前記動作モード制御部は前記スタンバイモードに遷移させ、前記スタンバイモードで動作している場合に、前記ディスプレイの操作が検出された場合、前記動作モード制御部は前記ホワイトボードモードに遷移させ、前記人推定部が前記表示装置の周辺に人が存在すると推定した場合、前記動作モード制御部は前記サイネージモードに遷移させ、前記サイネージモードで動作している場合に、前記ディスプレイの操作が検出された場合、前記動作モード制御部は前記ホワイトボードモードに遷移させ、前記人推定部が前記表示装置の周辺に人が存在しないと推定した場合、前記動作モード制御部は前記スタンバイモードに遷移させることを特徴とする。 In view of the above problems, the present invention operates in one of three modes: a whiteboard mode for displaying handwritten data, a signage mode for displaying information on a display, and a standby mode for turning off the display. A display device that operates in the whiteboard mode when the display is being operated, comprising: a person estimation unit that estimates whether or not a person exists around the display device; and an operation mode control unit that changes the operation mode according to the operation mode, and when the display device is operated in the whiteboard mode, the operation of the display is not detected and the human estimation unit detects a person in the vicinity of the display device. When it is estimated that a person exists, the operation mode control unit transitions to the signage mode, the operation of the display is not detected, and the person estimation unit estimates that there is no person around the display device, the The operation mode control unit transitions to the standby mode, and when an operation of the display is detected while operating in the standby mode, the operation mode control unit transitions to the whiteboard mode, and the human estimation. When the unit estimates that a person is present around the display device, the operation mode control unit transitions to the signage mode, and when operation of the display is detected when operating in the signage mode, The operation mode control unit transitions to the whiteboard mode, and when the person estimation unit estimates that no person exists around the display device, the operation mode control unit transitions to the standby mode. do.

周辺に人が存在するか否かに応じて動作モードの遷移を制御できる表示装置を提供することができる。 It is possible to provide a display device that can control the transition of operation modes depending on whether or not there is a person in the vicinity.

本実施形態の表示装置の概略的な動作を説明する図の一例である。It is an example of the figure explaining the schematic operation|movement of the display apparatus of this embodiment. 画像処理システムの全体構成図の一例である。1 is an example of an overall configuration diagram of an image processing system; FIG. 表示装置のハードウェア構成図の一例である。1 is an example of a hardware configuration diagram of a display device; FIG. 表示装置の機能ブロック図の一例である。1 is an example of a functional block diagram of a display device; FIG. 各画像レイヤの構成図の一例である。It is an example of the block diagram of each image layer. 動作モードの制御に関する表示装置の機能を示す機能ブロック図の一例である。FIG. 3 is an example of a functional block diagram showing functions of a display device related to control of operation modes; スタンバイモードからサイネージモードへの遷移について説明するシーケンス図の一例である。FIG. 10 is an example of a sequence diagram illustrating transition from standby mode to signage mode; サイネージモードからスタンバイモードへの遷移について説明するシーケンス図の一例である。FIG. 10 is an example of a sequence diagram illustrating transition from signage mode to standby mode; 表示システムの構成例を示す図である。It is a figure which shows the structural example of a display system.

以下、本発明を実施するための形態の一例として、表示装置と表示装置が行う動作モード制御方法について図面を参照しながら実施例を挙げて説明する。 Hereinafter, as an example of a mode for carrying out the present invention, a display device and an operation mode control method performed by the display device will be described with reference to the drawings.

<本実施形態の表示装置の概略>
図1は、本実施形態の表示装置の概略的な動作を説明する図の一例である。まず、本実施形態の表示装置2は3つの動作モードを有している。
(i) ホワイトボードモード:ホワイトボードアプリが動作しており、ホワイトボードアプリがアクティブ状態である。以下の(ii)(iii)は非アクティブな状態である。ホワイトボードアプリは以下の(ii)(iii)のモードでも起動したままである。
(ii) サイネージモード:サイネージアプリが動作している状態。サイネージモードが終了するとサイネージアプリも終了する。
(iii) スタンバイモード:ホワイトボード及びデジタルサイネージのどちらとしても使用されない状態。スタンバイモードはディスプレイの電源が消灯される。ホワイトボードアプリは起動したままであるが、サイネージアプリは終了している。
<Outline of the display device of the present embodiment>
FIG. 1 is an example of diagrams for explaining the schematic operation of the display device of this embodiment. First, the display device 2 of this embodiment has three operation modes.
(i) Whiteboard mode: The whiteboard app is running and the whiteboard app is active. (ii) and (iii) below are inactive states. The whiteboard application remains running even in the following modes (ii) and (iii).
(ii) Signage mode: A state in which the signage app is running. When the signage mode ends, the signage application also ends.
(iii) Standby Mode: A state in which the Whiteboard is not used as either a whiteboard or digital signage. Standby mode turns off the display. The whiteboard app is still running, but the signage app is closed.

そして、表示装置2は以下のように3つのモードを遷移させる。
・ホワイトボードモードで、ディスプレイの操作なし、かつ、周辺に人がいる場合、サイネージモードに遷移する。
・ホワイトボードモードで、ディスプレイの操作なし、かつ、周辺に人がない場合、スタンバイモードに遷移する。
・サイネージモードで、ディスプレイの操作ある場合ホワイトボードモードに遷移する。
・スタンバイモードで、ディスプレイの操作ある場合ホワイトボードモードに遷移する。
・サイネージモードで、周辺に人がいない場合スタンバイモードに遷移する。
・スタンバイモードで、周辺に人がいる場合サイネージモードに遷移する。
Then, the display device 2 transitions between the three modes as follows.
・In whiteboard mode, if the display is not operated and there are people nearby, the display will transition to signage mode.
・In whiteboard mode, if the display is not operated and there are no people in the vicinity, it transitions to standby mode.
・In signage mode, transition to whiteboard mode when the display is operated.
・Transition to whiteboard mode when the display is operated in standby mode.
・In signage mode, transition to standby mode when there are no people around.
・Transition to signage mode when there are people around in standby mode.

このように、本実施形態の表示装置2は、周辺に人がいない場合はホワイトボードモード又はサイネージモードからスタンバイモードに遷移することで消費電力を低減できる。また、スタンバイモードからサイネージモードに遷移できる。 Thus, the display device 2 of the present embodiment can reduce power consumption by transitioning from the whiteboard mode or the signage mode to the standby mode when there are no people around. In addition, it is possible to transition from the standby mode to the signage mode.

従来のサイネージ機能を有する表示装置2には、ホワイトボードモードとサイネージモードの間の状態遷移しかなく、スタンバイモードを利用することについては考慮されていない。従来の表示装置2は、一度サイネージモードに遷移すると、スタンバイモードが適切な場合(表示装置2の周辺に人が存在しない場合)にもサイネージモードで動作し続けてしまい、電力を無駄に消費してしまっていた。 The conventional display device 2 having a signage function has only state transitions between the whiteboard mode and the signage mode, and does not consider the use of the standby mode. Once the conventional display device 2 transits to the signage mode, it continues to operate in the signage mode even when the standby mode is appropriate (when there are no people around the display device 2), thus wasting power. It was gone.

<用語について>
また、表示装置2は、電子ペンや指先で画面をなぞるように動かして入力された画面における電子ペンや指先の座標(位置)をタッチパネルで取得し、この座標を連結したストロークをタッチパネルと一体のディスプレイに表示するいわゆる電子機器である。タッチパネルの方式はどのようなものでもよい。表示装置2は、電子黒板、電子ホワイトボード、電子情報ボード、電子白板、など商品によって呼称が異なっていてよい。また、表示装置2はコンピュータの機能を有するため、情報処理装置とよばれてもよい。また、いくつかの部品を組み合わせて実現されている場合に表示システムと呼ばれてもよい。タッチパネルを備えたタブレット端末も表示装置2として使用される場合がある。
<Terms>
Further, the display device 2 acquires the coordinates (positions) of the electronic pen or the fingertip on the screen input by moving the electronic pen or the fingertip so as to trace the screen on the touch panel, and a stroke connecting the coordinates is integrated with the touch panel. It is a so-called electronic device that displays on a display. Any type of touch panel may be used. The display device 2 may be named differently depending on the product, such as an electronic blackboard, an electronic whiteboard, an electronic information board, or an electronic whiteboard. Moreover, since the display device 2 has the function of a computer, it may be called an information processing device. Moreover, when it is realized by combining several parts, it may be called a display system. A tablet terminal having a touch panel may also be used as the display device 2 .

デジタルサイネージとは、表示と通信にデジタル技術を活用してディスプレイやプロジェクタなどによって映像や文字を表示する情報・広告媒体をいう。情報・広告を表示するアプリをサイネージアプリという。 Digital signage is an information/advertising medium that uses digital technology for display and communication to display images and characters on displays and projectors. Applications that display information and advertisements are called signage applications.

<システムの概要>
図2は、本実施形態の画像処理システム1の全体構成図である。なお、図2では、説明を簡略化するために、2台の表示装置2a,2b及びこれに付随する電子ペン4a,4b等を示しているだけであって、3台以上の表示装置や電子ペン等を利用してもよい。
図2に示されているように、画像処理システム1は、複数の表示装置2a,2b、複数の電子ペン4a,4b、USBメモリ5a,5b、ノートPC(Personal Computer)6a,6b、テレビ(ビデオ)会議端末7a,7b、及びPC8を有する。また、表示装置2a,2b、及びPC8は、通信ネットワーク9を介して通信可能に接続されている。更に、複数の表示装置2a,2bには、それぞれディスプレイ3a,3bが設けられている。
<Overview of the system>
FIG. 2 is an overall configuration diagram of the image processing system 1 of this embodiment. In addition, in order to simplify the explanation, FIG. A pen or the like may be used.
As shown in FIG. 2, the image processing system 1 includes a plurality of display devices 2a, 2b, a plurality of electronic pens 4a, 4b, USB memories 5a, 5b, notebook PCs (Personal Computers) 6a, 6b, televisions ( video) has conference terminals 7a, 7b and a PC 8; Also, the display devices 2a and 2b and the PC 8 are connected via a communication network 9 so as to be able to communicate with each other. Furthermore, displays 3a and 3b are provided in the plurality of display devices 2a and 2b, respectively.

また、表示装置2aには、電子ペン4aによって生じたイベント(ディスプレイ3aに電子ペン4aのペン先、又は、電子ペン4aのペン尻のタッチ)による描画された画像を、ディスプレイ3aに表示させることができる。なお、電子ペン4aだけでなく、ユーザの手Ha等によって生じたイベント(拡大、縮小、ページめくり等のジェスチャ)に基づいて、ディスプレイ3a上に表示されている画像を変更させることもできる。 In addition, the display device 2a can display an image drawn by an event caused by the electronic pen 4a (touching the tip of the electronic pen 4a or the tip of the electronic pen 4a on the display 3a). can be done. It is also possible to change the image displayed on the display 3a based not only on the electronic pen 4a but also on the basis of events (gestures such as enlargement, reduction, page turning, etc.) generated by the user's hand Ha or the like.

また、表示装置2aには、USBメモリ5aが接続可能であり、表示装置2aはUSBメモリ5aからPDF等の電子ファイルを読み出したり、表示装置2aはUSBメモリ5aに電子ファイルを記録したりすることができる。また、表示装置2aには、DisplayPort(登録商標)、DVI(Digital Visual Interface)、HDMI(登録商標。High-Definition Multimedia Interface)及びVGA(Video Graphics Array)等の規格による通信が可能なケーブル10a1を介して、ノートPC6aが接続されている。そして、表示装置2aは、ディスプレイ3aに対する接触によってイベントを発生させ、このイベントを示すイベント情報を、マウスやキーボード等の入力装置からのイベントと同様に、ノートPC6aに送信する。同じく、表示装置2aには、上記規格による通信が可能なケーブル10a2を介して、テレビ(ビデオ)会議端末7aが接続されている。なお、ノートPC6a、及びテレビ会議端末7aは、Bluetooth(登録商標)等の各種無線通信プロトコルに準拠した無線通信により、表示装置2aと通信してもよい。 A USB memory 5a can be connected to the display device 2a. The display device 2a can read electronic files such as PDF files from the USB memory 5a, and the display device 2a can record electronic files in the USB memory 5a. can be done. In addition, the display device 2a is provided with a cable 10a1 capable of communication according to standards such as DisplayPort (registered trademark), DVI (Digital Visual Interface), HDMI (registered trademark: High-Definition Multimedia Interface), and VGA (Video Graphics Array). A notebook PC 6a is connected via the network. Then, the display device 2a generates an event by touching the display 3a, and transmits event information indicating the event to the notebook PC 6a in the same manner as an event from an input device such as a mouse or a keyboard. Similarly, a television (video) conference terminal 7a is connected to the display device 2a via a cable 10a2 capable of communication according to the above standards. Note that the notebook PC 6a and the video conference terminal 7a may communicate with the display device 2a by wireless communication conforming to various wireless communication protocols such as Bluetooth (registered trademark).

一方、表示装置2bが設置されている他の拠点では、上記と同様に、ディスプレイ3bを備えた表示装置2b、電子ペン4b、USBメモリ5b、ノートPC6b、テレビ会議端末7b、ケーブル10b1、ケーブル10b2が利用される。更に、ユーザの手Hb等によって生じたイベントに基づいて、ディスプレイ3b上に表示されている画像を変更させることもできる。 On the other hand, at other bases where the display device 2b is installed, the display device 2b having the display 3b, the electronic pen 4b, the USB memory 5b, the notebook PC 6b, the video conference terminal 7b, the cable 10b1, the cable 10b2 are installed in the same manner as described above. is used. Furthermore, it is also possible to change the image displayed on the display 3b based on an event caused by the user's hand Hb or the like.

これにより、一の拠点で表示装置2aのディスプレイ3a上に描画された画像は、他の拠点で表示装置2bのディスプレイ3b上にも表示され、逆に他の拠点で表示装置2bのディスプレイ3b上に描画された画像は、一の拠点で表示装置2aのディスプレイ3a上に表示される。このように、画像処理システム1では、遠隔地において同じ画像を共有する遠隔共有処理を行うことができるため、遠隔地での会議等に用いると、非常に便利である。 As a result, an image drawn on the display 3a of the display device 2a at one site is also displayed on the display 3b of the display device 2b at another site, and vice versa. is displayed on the display 3a of the display device 2a at one site. As described above, the image processing system 1 can perform remote sharing processing for sharing the same image at a remote location, and is therefore very convenient when used for a conference or the like at a remote location.

なお、以下では、複数の表示装置のうち任意の表示装置を示す場合には「表示装置2」と示す。複数のディスプレイのうち任意のディスプレイを示す場合には「ディスプレイ3」と示す。複数の電子ペンのうち任意の電子ペンを示す場合には「電子ペン4」と示す。複数のUSBメモリのうち任意のUSBメモリを示す場合には「USBメモリ5」と示す。複数のノートPCのうち任意のノートPCを示す場合には「ノートPC6」と示す。複数のテレビ会議端末のうち任意のテレビ会議端末を示す場合には「テレビ会議端末7」と示す。また、複数のユーザの手のうち任意の手を示す場合には「手H」と示す。複数のケーブルのうち任意のケーブルを示す場合には「ケーブル10」と示す。 In addition, hereinafter, when an arbitrary display device among a plurality of display devices is indicated, it is referred to as "display device 2". When indicating an arbitrary display among a plurality of displays, it is indicated as "display 3". When indicating an arbitrary electronic pen among a plurality of electronic pens, it is indicated as "electronic pen 4". When indicating an arbitrary USB memory among a plurality of USB memories, it is indicated as "USB memory 5". When indicating an arbitrary notebook PC among a plurality of notebook PCs, it is indicated as "notebook PC 6". When indicating an arbitrary teleconference terminal among a plurality of teleconference terminals, it is indicated as "teleconference terminal 7". Also, when indicating an arbitrary hand among a plurality of users' hands, it is indicated as "hand H". When indicating an arbitrary cable among a plurality of cables, it is indicated as "cable 10".

また、本実施形態では、画像処理装置の一例として、表示装置を説明するが、これに限るものではなく、画像処理装置の他の例として、電子看板(デジタルサイネージ)、スポーツや天気予報等で利用されるテレストレータ、又は、遠隔画像(映像)診断装置等であってもよい。また、情報処理端末の一例として、ノートPC6を説明するが、これに限るものではなく、情報処理端末の他の例として、デスクトップ型PCやタブレット型PC、PDA、デジタルビデオカメラ、デジタルカメラ、ゲーム機等の画像フレームを供給可能な端末であってもよい。更に、通信ネットワークには、インターネット、LAN(Local Area Network)、携帯電話通信網等が含まれる。また、本実施形態では、記録媒体の一例として、USBメモリを説明するが、これに限るものではなく、記録媒体の他の例として、SDカード等の各種記録メディアであってもよい。 In this embodiment, a display device will be described as an example of an image processing device, but the present invention is not limited to this. It may be a telestrator or a remote imaging (video) diagnostic device or the like. Also, the notebook PC 6 will be described as an example of an information processing terminal, but it is not limited to this, and other examples of information processing terminals include a desktop PC, tablet PC, PDA, digital video camera, digital camera, and game. It may be a terminal capable of supplying image frames such as a machine. Furthermore, communication networks include the Internet, LANs (Local Area Networks), mobile phone communication networks, and the like. Also, in this embodiment, a USB memory is described as an example of a recording medium, but the present invention is not limited to this, and various recording media such as an SD card may be used as other examples of the recording medium.

<表示装置のハードウェア構成>
図3は、表示装置2のハードウェア構成図である。図3に示されているように、表示装置2は、CPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203、SSD(Solid State Drive)204、ネットワークI/F205、及び、外部機器接続I/F(Interface)206を備えている。
<Hardware Configuration of Display Device>
FIG. 3 is a hardware configuration diagram of the display device 2. As shown in FIG. As shown in FIG. 3, the display device 2 includes a CPU (Central Processing Unit) 201, a ROM (Read Only Memory) 202, a RAM (Random Access Memory) 203, an SSD (Solid State Drive) 204, a network I/ F205 and an external device connection I/F (Interface) 206 are provided.

これらのうち、CPU201は、表示装置2全体の動作を制御する。ROM202は、CPU201やIPL(Initial Program Loader)等のCPU201の駆動に用いられるプログラムを記憶する。RAM203は、CPU201のワークエリアとして使用される。SSD204は、表示装置用のプログラム等の各種データを記憶する。ネットワークI/F205は、通信ネットワーク9との通信を制御する。外部機器接続I/F206は、各種の外部機器を接続するためのインタフェースである。この場合の外部機器は、例えば、USB(Universal Serial Bus)メモリ5、外付け機器(マイク240、スピーカ250、カメラ260)である。 Among these, the CPU 201 controls the operation of the entire display device 2 . The ROM 202 stores programs used to drive the CPU 201, such as the CPU 201 and an IPL (Initial Program Loader). A RAM 203 is used as a work area for the CPU 201 . The SSD 204 stores various data such as programs for display devices. A network I/F 205 controls communication with the communication network 9 . The external device connection I/F 206 is an interface for connecting various external devices. The external devices in this case are, for example, a USB (Universal Serial Bus) memory 5 and external devices (microphone 240, speaker 250, camera 260).

また、表示装置2は、キャプチャデバイス211、GPU212、ディスプレイコントローラ213、接触センサ214、センサコントローラ215、電子ペンコントローラ216、近距離通信回路219、及び近距離通信回路219のアンテナ219a、電源スイッチ222及び選択スイッチ類223を備えている。 The display device 2 also includes a capture device 211, a GPU 212, a display controller 213, a contact sensor 214, a sensor controller 215, an electronic pen controller 216, a short-range communication circuit 219, an antenna 219a of the short-range communication circuit 219, a power switch 222 and Selection switches 223 are provided.

これらのうち、キャプチャデバイス211は、外付けのノートPC6がディスプレイ3に表示する映像情報を静止画又は動画としてディスプレイ3に表示させる。 Among them, the capture device 211 causes the display 3 to display video information displayed by the external notebook PC 6 on the display 3 as a still image or a moving image.

GPU(Graphics Processing Unit)212は、グラフィクスを専門に扱う半導体チップである。ディスプレイコントローラ213は、GPU212からの出力画像をディスプレイ3等へ出力するために画面表示の制御及び管理を行う。接触センサ214は、ディスプレイ3上に電子ペン4やユーザの手H等が接触したことを検知する。 A GPU (Graphics Processing Unit) 212 is a semiconductor chip that specializes in graphics. A display controller 213 controls and manages screen display in order to output an output image from the GPU 212 to the display 3 or the like. The contact sensor 214 detects that the electronic pen 4 , the user's hand H, or the like touches the display 3 .

センサコントローラ215は、接触センサ214の処理を制御する。接触センサ214は、赤外線遮断方式による座標の入力及び座標の検出を行う。この座標の入力及び座標の検出する方法は、ディスプレイ3の上側両端部に設置された2つ受発光装置が、ディスプレイ3に平行して複数の赤外線を放射し、ディスプレイ3の周囲に設けられた反射部材によって反射されて、受光素子が放射した光の光路と同一の光路上を戻って来る光を受光する方法である。 A sensor controller 215 controls the processing of the contact sensor 214 . The contact sensor 214 performs coordinate input and coordinate detection using an infrared shielding method. In this method of inputting coordinates and detecting coordinates, two light emitting/receiving devices installed at both ends of the upper side of the display 3 radiate a plurality of infrared rays parallel to the display 3, and are provided around the display 3. This is a method of receiving light that is reflected by a reflecting member and returns along the same optical path as that of light emitted by a light receiving element.

接触センサ214は、物体によって遮断された2つの受発光装置が放射した赤外線のIDをセンサコントローラ215に出力し、センサコントローラ215が、物体の接触位置である座標位置を特定する。電子ペンコントローラ216は、電子ペン4と通信することで、ディスプレイ3へのペン先のタッチやペン尻のタッチの有無を判断する。近距離通信回路219は、NFC(Near Field Communication)やBluetooth(登録商標)等の通信回路である。 The contact sensor 214 outputs to the sensor controller 215 the IDs of the infrared rays emitted by the two light emitting/receiving devices blocked by the object, and the sensor controller 215 identifies the coordinate position, which is the contact position of the object. The electronic pen controller 216 communicates with the electronic pen 4 to determine whether or not the display 3 has been touched with the tip of the pen or the bottom of the pen. The short-range communication circuit 219 is a communication circuit such as NFC (Near Field Communication) or Bluetooth (registered trademark).

電源スイッチ222は、表示装置2の電源のON/OFFを切り換えるためのスイッチである。選択スイッチ類223は、例えば、ディスプレイ3の表示の明暗や色合い等を調整するためのスイッチ群である。 The power switch 222 is a switch for switching ON/OFF of the power of the display device 2 . The selection switches 223 are, for example, a group of switches for adjusting the brightness, color, etc. of the display on the display 3 .

更に、表示装置2は、バスライン210を備えている。バスライン210は、図3に示されているCPU201等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 Furthermore, the display device 2 has a bus line 210 . A bus line 210 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 201 shown in FIG.

なお、接触センサ214は、赤外線遮断方式に限らず、静電容量の変化を検知することにより接触位置を特定する静電容量方式のタッチパネル、対向する2つの抵抗膜の電圧変化によって接触位置を特定する抵抗膜方式のタッチパネル、接触物体が表示部29に接触することによって生じる電磁誘導を検知して接触位置を特定する電磁誘導方式のタッチパネルなどの種々の検出手段を用いてもよい。また、電子ペンコントローラ216が、電子ペン4のペン先及びペン尻だけでなく、電子ペン4のユーザが握る部分や、その他の電子ペンの部分のタッチの有無を判断するようにしてもよい。 In addition, the contact sensor 214 is not limited to the infrared blocking type, but is a capacitive type touch panel that identifies the contact position by detecting a change in capacitance, or identifies the contact position by a voltage change of two opposing resistive films. Various detection means may be used, such as a resistive touch panel, an electromagnetic induction touch panel that identifies the contact position by detecting electromagnetic induction generated when a contact object touches the display unit 29 . Further, the electronic pen controller 216 may determine whether or not the part of the electronic pen 4 that is gripped by the user or other parts of the electronic pen is touched, in addition to the tip and the pen butt of the electronic pen 4 .

カメラ260はテレビ会議の際に参加者を撮像するために使用されるが、参加者に限らず表示装置の周囲の人を撮像するために使用される。カメラ260は撮像装置でなくてもよく、赤外線センサなど人検知できるセンサでもよい。また、カメラ260は周囲360度を撮像できる全天球カメラでもよい。通常の画角のカメラは比較的狭いので人の検知が困難になるおそれがあるが、全天球カメラでは広範囲の人を撮像できるので周囲の人を検知しやすい。カメラ260は人感検知センサとして使用される。 The camera 260 is used to capture an image of the participants during the video conference, but it is also used to capture an image of not only the participants but also the people around the display device. The camera 260 may not be an imaging device, and may be a sensor such as an infrared sensor that can detect a person. In addition, the camera 260 may be an omnidirectional camera capable of capturing 360-degree surroundings. A normal camera with a relatively narrow angle of view may make it difficult to detect people, but a omnidirectional camera can capture a wide range of people, so it is easy to detect people in the surroundings. Camera 260 is used as a human detection sensor.

<表示装置の機能構成>
続いて、図4、図5を用いて、表示装置2の機能構成について説明する。なお、先ずは、図4を用いて、表示装置2の全体的な機能構成について説明する。図4は、表示装置2の機能ブロック図である。
<Functional Configuration of Display Device>
Next, the functional configuration of the display device 2 will be described with reference to FIGS. 4 and 5. FIG. First, the overall functional configuration of the display device 2 will be described with reference to FIG. FIG. 4 is a functional block diagram of the display device 2. As shown in FIG.

表示装置2は、図4に示されているハードウェア構成及びプログラムによって、図4に示されている各機能構成を有する。表示装置2は、最初に遠隔共有処理を開始する「主催装置」となり得ると共に、既に開始されている遠隔共有処理に後から参加する「参加装置」にもなり得る。また、表示装置2は、大きく分けて、クライアント部20及びサーバ部90の両方によって構成されている。 The display device 2 has each functional configuration shown in FIG. 4 by the hardware configuration and programs shown in FIG. The display device 2 can be a "sponsor device" that first starts the remote sharing process, and can also be a "participating device" that later participates in the already started remote sharing process. Further, the display device 2 is roughly divided into both a client section 20 and a server section 90 .

クライアント部20及びサーバ部90はホワイトボードアプリ53の機能であり、サイネージアプリ54と表示部29を共有している。表示部29を使用するアプリの切り替えの詳細は図6にて説明する。 The client unit 20 and server unit 90 are functions of the whiteboard application 53 and share the display unit 29 with the signage application 54 . Details of switching between applications using the display unit 29 will be described with reference to FIG.

クライアント部20及びサーバ部90は、表示装置2の1台の筐体内で実現される機能である。そして、表示装置2が主催装置となる場合には、この表示装置2では、クライアント部20とサーバ部90が実現される。また、表示装置2が参加装置となる場合には、この表示装置2では、クライアント部20は実現されるが、サーバ部90は実現されない。即ち、図2において、表示装置2aが主催装置で、表示装置2bが参加装置となる場合、表示装置2aのクライアント部20は、同じ表示装置2a内に実現されたサーバ部90を介して、他の表示装置2bのクライアント部20と通信を行う。一方、表示装置2bのクライアント部20は、他の表示装置2a内に実現されたサーバ部90を介して、他の表示装置2aのクライアント部と通信を行う。 The client unit 20 and the server unit 90 are functions implemented within one housing of the display device 2 . When the display device 2 serves as the host device, the display device 2 implements the client section 20 and the server section 90 . Further, when the display device 2 is a participating device, the display device 2 implements the client section 20 but does not implement the server section 90 . That is, in FIG. 2, when the display device 2a is the host device and the display device 2b is the participating device, the client section 20 of the display device 2a can communicate with other devices via the server section 90 implemented in the same display device 2a. communicates with the client unit 20 of the display device 2b. On the other hand, the client section 20 of the display device 2b communicates with the client section of the other display device 2a via the server section 90 implemented in the other display device 2a.

〔クライアント部の機能構成〕
続いて、主に図4、図5を用いて、クライアント部20の機能構成について説明する。クライアント部20は、映像取得部21、座標検知部22、自動調整部23、接触検知部24、イベント振分部25、操作処理部26、ジェスチャ処理部27、映像重畳部28、画像処理部30、及び通信制御部60を有する。
[Functional configuration of the client part]
Next, the functional configuration of the client unit 20 will be described mainly with reference to FIGS. 4 and 5. FIG. The client unit 20 includes an image acquisition unit 21, a coordinate detection unit 22, an automatic adjustment unit 23, a contact detection unit 24, an event distribution unit 25, an operation processing unit 26, a gesture processing unit 27, an image superimposition unit 28, and an image processing unit 30. , and a communication control unit 60 .

このうち、映像取得部21は、ケーブル10に接続された映像出力機器の出力画像を取得する。映像取得部21は、映像出力機器から画像信号を受信すると、この画像信号を解析して、この画像信号によって形成される映像出力機器の表示画像である画像フレームの解像度や、この画像フレームの更新頻度などの画像情報を導出し、画像取得部31に出力する。 Of these, the video acquisition unit 21 acquires the output image of the video output device connected to the cable 10 . When an image signal is received from the image output device, the image acquisition unit 21 analyzes the image signal, and determines the resolution of the image frame, which is the display image of the image output device formed by the image signal, and the update of the image frame. Image information such as frequency is derived and output to the image acquisition unit 31 .

座標検知部22は、ディスプレイ3上でユーザによって生じたイベント(ディスプレイ3上に電子ペン4又はユーザの手Hがタッチされた動作等)の座標位置を検出する。また、座標検知部22は、タッチされた面積も検出する。 The coordinate detection unit 22 detects the coordinate position of an event caused by the user on the display 3 (such as the action of touching the display 3 with the electronic pen 4 or the user's hand H). The coordinate detection unit 22 also detects the touched area.

自動調整部23は、表示装置2の起動時(再起動時と表現してもよい)に起動され、座標検知部22が適切な値を出力できるように、光センサ方式により座標を検知する座標検知部22がセンサーカメラの画像を処理する際のパラメータを調整する。 The automatic adjustment unit 23 is started when the display device 2 is started (it may be expressed as a restart), and the coordinates are detected by an optical sensor method so that the coordinate detection unit 22 can output an appropriate value. It adjusts the parameters when the detection unit 22 processes the image of the sensor camera.

接触検知部24は、ユーザによって生じたイベント(ディスプレイ3上に電子ペン4のペン先又は電子ペン4のペン尻が押下(タッチ)された動作等)を検出する。 The contact detection unit 24 detects an event caused by the user (such as an operation in which the tip of the electronic pen 4 or the tip of the electronic pen 4 is pressed (touched) on the display 3).

イベント振分部25は、座標検知部22によって検知されたイベントの座標位置と接触検知部24によって検出された検出結果を、ストローク描画、UI操作、及びジェスチャ操作の各イベントに振り分ける。ここで、「ストローク描画」は、ディスプレイ3上に図5に示されている後述のストローク画像(B)が表示されている場合に、ユーザがディスプレイ3上で電子ペン4を押下し、この押下した状態で電子ペン4を移動させ、最終的にディスプレイ3上から電子ペン4を離すまでのイベントである。このストローク描画により、例えば、アルファベット「S」や「T」等がディスプレイ3上に描画される。なお、この「ストローク描画」には、画像を描画するだけでなく、既に描画された画像を削除したり、描画された画像を編集したりするイベントも含まれる。 The event distribution unit 25 distributes the coordinate position of the event detected by the coordinate detection unit 22 and the detection result detected by the contact detection unit 24 to stroke drawing, UI operation, and gesture operation events. Here, "stroke drawing" means that the user presses the electronic pen 4 on the display 3 when a stroke image (B), which will be described later, shown in FIG. This is an event from moving the electronic pen 4 in the state of being held to finally releasing the electronic pen 4 from the display 3 . By this stroke drawing, for example, alphabets such as “S” and “T” are drawn on the display 3 . Note that this "stroke drawing" includes not only events for drawing an image, but also events for deleting an already drawn image and editing a drawn image.

「UI操作」は、ディスプレイ3上に図5に示されている後述のUI画像(A)が表示されている場合に、ユーザが電子ペン4又は手Hによって所定の位置を押下したイベントである。このUI操作により、例えば、電子ペン4により描画される線の色や幅等が設定される。 "UI operation" is an event in which the user presses a predetermined position with the electronic pen 4 or the hand H when a UI image (A) shown in FIG. 5, which will be described later, is displayed on the display 3. . By this UI operation, for example, the color, width, etc. of a line drawn with the electronic pen 4 are set.

「ジェスチャ操作」は、ディスプレイ3上に図5に示されている後述のストローク画像(B)が表示されている場合に、ユーザが手Hでディスプレイ3上をタッチしたり移動させたりするイベントである。このジェスチャ操作により、例えば、ユーザがディスプレイ3に手Hをタッチさせた状態で手Hを移動させることで、画像の拡大(若しくは縮小)、表示領域の変更、又は、ページ切り換え等を行うことができる。 "Gesture operation" is an event in which the user touches or moves the display 3 with the hand H when a stroke image (B) shown in FIG. 5, which will be described later, is displayed on the display 3. be. With this gesture operation, for example, by moving the hand H while the user touches the display 3, the image can be enlarged (or reduced), the display area can be changed, or the page can be switched. can.

操作処理部26は、イベント振分部25によってUI操作と判断されたものから、イベントが発生されたUIの要素にしたがって、各種操作を実行する。このUIの要素としては、例えば、ボタン、リスト、チェックボックス、テキストボックスが挙げられる。ジェスチャ処理部27は、イベント振分部25によってジェスチャ操作と判断されたものに対応した操作を実行する。 The operation processing unit 26 executes various operations according to the UI element for which the event is generated, based on the UI operation determined by the event allocation unit 25 . Elements of this UI include, for example, buttons, lists, check boxes, and text boxes. The gesture processing unit 27 executes an operation corresponding to the gesture operation determined by the event distribution unit 25 .

映像重畳部28は、後述の表示重畳部36で重畳された画像を映像として表示部29に対して表示する。表示部29はディスプレイ3により実現される表示機能を示す。また、映像重畳部28は、映像出力機器(ノートPC6等)からの映像に対して、他の映像出力機器(テレビ会議端末7等)から送られて来た映像をピクチャーインピクチャーする。更に、映像重畳部28は、ピクチャーインピクチャーされて表示部29の一部に表示された映像を、表示部29の全体に表示させるための切り替えを行う。 The video superimposing unit 28 displays the image superimposed by the display superimposing unit 36, which will be described later, on the display unit 29 as a video. A display unit 29 indicates a display function realized by the display 3 . Further, the video superimposing unit 28 picture-in-pictures the video sent from the other video output device (teleconference terminal 7, etc.) on the video from the video output device (notebook PC 6, etc.). Further, the image superimposing unit 28 performs switching to display the image that has been picture-in-picture and displayed on a part of the display unit 29 on the entire display unit 29 .

画像処理部30は、図5に示されているような各画像レイヤの重畳処理等を行う。この画像処理部30は、画像取得部31、ストローク処理部32、UI画像生成部33、背景生成部34、レイアウト管理部35、表示重畳部36、ページ処理部37、ファイル処理部40、ページデータ記憶部300、及び遠隔ライセンス管理テーブル310を有している。 The image processing unit 30 performs superimposition processing and the like for each image layer as shown in FIG. The image processing unit 30 includes an image acquisition unit 31, a stroke processing unit 32, a UI image generation unit 33, a background generation unit 34, a layout management unit 35, a display superimposition unit 36, a page processing unit 37, a file processing unit 40, page data It has a storage unit 300 and a remote license management table 310 .

このうち、画像取得部31は、映像取得部21で取得された映像から、各フレームを画像として取得する。画像取得部31は、この画像のデータを、ページ処理部37に出力する。この画像は、図5に示されている映像出力機器(ノートPC6等)からの出力画像(C)に相当する。 Of these, the image acquisition section 31 acquires each frame as an image from the video acquired by the video acquisition section 21 . The image acquisition section 31 outputs this image data to the page processing section 37 . This image corresponds to the output image (C) from the video output device (notebook PC 6, etc.) shown in FIG.

ストローク処理部32は、イベント振分部25によって割り振られたストローク描画に係るイベントに基づいて、画像を描画したり、描画された画像を削除したり、描画された画像を編集する。このストローク描画による画像は、図5に示されているストローク画像(B)に相当する。また、このストローク描画に基づいた画像の描画、削除、編集の各結果は、後述の操作データとして、データ管理部80に記憶される。 The stroke processing unit 32 draws an image, deletes the drawn image, or edits the drawn image based on the stroke drawing event assigned by the event distribution unit 25 . This stroke-drawn image corresponds to the stroke image (B) shown in FIG. Further, each result of image drawing, deletion, and editing based on this stroke drawing is stored in the data management unit 80 as operation data, which will be described later.

UI画像生成部33は、表示装置2に予め設定されているUI(ユーザインターフェース)画像を生成する。このUI画像は、図5に示されているUI画像(A)に相当する。
背景生成部34は、ページ処理部37がページデータ記憶部300から読み出したページデータのうちのメディアデータを、ページ処理部37から受信する。背景生成部34は、この受信したメディアデータを表示重畳部36に出力する。また、このメディアデータによる画像は、図5に示されている背景画像(D)に相当する。背景画像(D)のパターンは、無地、グリッド表示等である。
The UI image generator 33 generates a UI (user interface) image preset in the display device 2 . This UI image corresponds to the UI image (A) shown in FIG.
The background generator 34 receives from the page processor 37 the media data in the page data read by the page processor 37 from the page data storage 300 . The background generation unit 34 outputs the received media data to the display superimposition unit 36 . An image based on this media data corresponds to the background image (D) shown in FIG. The pattern of the background image (D) is plain, grid display, or the like.

レイアウト管理部35は、表示重畳部36に対して、画像取得部31、ストローク処理部32、及びUI画像生成部33(又は背景生成部34)から出力された各画像のレイアウトを示すレイアウト情報を管理している。これにより、レイアウト管理部35は、表示重畳部36に対して、出力画像(C)及びストローク画像(B)を、UI画像(A)及び背景画像(D)中のどの位置に表示させるか又は非表示にさせるかを指示することができる。 The layout management unit 35 provides the display superimposition unit 36 with layout information indicating the layout of each image output from the image acquisition unit 31, the stroke processing unit 32, and the UI image generation unit 33 (or the background generation unit 34). managing. Thereby, the layout management unit 35 instructs the display superimposition unit 36 to display the output image (C) and the stroke image (B) in the UI image (A) and the background image (D), or You can specify whether to hide it.

表示重畳部36は、レイアウト管理部35から出力されたレイアウト情報に基づき、画像取得部31、ストローク処理部32、及びUI画像生成部33(背景生成部34)から出力された各画像のレイアウトを行う。 Based on the layout information output from the layout management unit 35, the display superimposition unit 36 determines the layout of each image output from the image acquisition unit 31, the stroke processing unit 32, and the UI image generation unit 33 (background generation unit 34). conduct.

ページ処理部37は、ストローク画像(B)のデータと出力画像(C)のデータを、1つのページデータにまとめてページデータ記憶部300に記憶する。ストローク画像(B)のデータは、ストローク配列データ(各ストロークデータ)としてページデータの一部を成す。出力画像(C)のデータは、メディアデータとしてページデータの一部を成す。そして、このメディアデータは、ページデータ記憶部300から読み出されると、背景画像(D)のデータとして取り扱われる。 The page processing unit 37 combines the data of the stroke image (B) and the data of the output image (C) into one page data and stores it in the page data storage unit 300 . The data of the stroke image (B) forms part of the page data as stroke arrangement data (each stroke data). The data of the output image (C) forms part of the page data as media data. Then, when this media data is read from the page data storage unit 300, it is handled as data of the background image (D).

また、ページ処理部37は、一旦記憶されたページデータのうちのメディアデータを、背景生成部34を介して表示重畳部36に送信することで、映像重畳部28が背景画像(D)をディスプレイ3に再表示させることができる。また、ページ処理部37は、ページデータのうちのストローク配列データ(各ストロークデータ)を、ストローク処理部32に戻すことで、ストロークの再編集ができる状態にすることができる。更に、ページ処理部37は、ページデータを削除したり複製したりすることもできる。 Further, the page processing unit 37 transmits the media data of the temporarily stored page data to the display superimposing unit 36 via the background generating unit 34, so that the video superimposing unit 28 displays the background image (D). 3 can be redisplayed. Further, the page processing unit 37 can return the stroke arrangement data (each stroke data) of the page data to the stroke processing unit 32, thereby making it possible to re-edit the strokes. Furthermore, the page processing unit 37 can also delete or duplicate page data.

即ち、ページ処理部37がページデータ記憶部300にページデータを記憶する時点でディスプレイ3上に表示されている出力画像(C)のデータは、一旦、ページデータ記憶部300に記憶され、その後にページデータ記憶部300から読み出される際には、背景画像(D)を示すメディアデータとして読みされる。そして、ページ処理部37は、ページデータ記憶部300から読み出したページデータのうち、ストローク画像(B)を示すストローク配列データを、ストローク処理部32に出力する。また、ページ処理部37は、ページデータ記憶部300から読み出したページデータのうち、背景画像(D)を示すメディアデータを、背景生成部34に出力する。 That is, the data of the output image (C) displayed on the display 3 when the page processing unit 37 stores the page data in the page data storage unit 300 is temporarily stored in the page data storage unit 300, and then When read from the page data storage unit 300, it is read as media data representing the background image (D). Then, the page processing unit 37 outputs stroke array data indicating the stroke image (B) among the page data read from the page data storage unit 300 to the stroke processing unit 32 . The page processing unit 37 also outputs media data indicating the background image (D) among the page data read from the page data storage unit 300 to the background generation unit 34 .

表示重畳部36は、 画像取得部31からの出力画像(C)、ストローク処理部32からのストローク画像(B)、UI画像生成部33からのUI画像(A)、及び、背景生成部34からの背景画像(D)を、レイアウト管理部35によって指定されたレイアウトにしたがって重畳する。これにより、図5に示されているように、各画像が重なってもユーザが見える順に、UI画像(A)、ストローク画像(B)、出力画像(C)、及び背景画像(D)の各レイアの構成となっている。 The display superimposing unit 36 receives the output image (C) from the image acquisition unit 31, the stroke image (B) from the stroke processing unit 32, the UI image (A) from the UI image generation unit 33, and the background generation unit 34. background image (D) is superimposed according to the layout designated by the layout management unit 35 . As a result, as shown in FIG. 5, the UI image (A), the stroke image (B), the output image (C), and the background image (D) are displayed in the order that the user can see even if the images overlap. It is composed of Leia.

また、表示重畳部36は、図5に示されている画像(C)と画像(D)を切り替えて、画像(A)及び画像(B)に対して排他的に重畳することも可能である。例えば、当初、画像(A)、画像(B)及び画像(C)が表示されている状態で、表示装置2と映像出力機器(ノートPC6等)との間のケーブル10が抜かれた場合には、レイアウト管理部35の指定によって、画像(C)を重畳対象から外し、画像(D)を表示させることができる。この場合に、また、表示重畳部36は、表示の拡大、表示の縮小、表示領域の移動処理も行う。 In addition, the display superimposing unit 36 can switch between the image (C) and the image (D) shown in FIG. 5 and superimpose exclusively on the image (A) and the image (B). . For example, when the cable 10 between the display device 2 and the video output device (notebook PC 6, etc.) is pulled out while the image (A), the image (B), and the image (C) are initially displayed, , the image (C) can be removed from the superimposition target and the image (D) can be displayed according to the designation of the layout management unit 35 . In this case, the display superimposing unit 36 also performs display enlargement, display reduction, and display area movement processing.

〔サーバ部の機能構成〕
サーバ部90は、各表示装置2に設けられており、いずれの表示装置2であっても、サーバ部としての役割を果たすことができる。そのため、サーバ部90は、通信制御部70、及びデータ管理部80を有している。
[Functional configuration of the server part]
The server section 90 is provided in each display device 2, and any display device 2 can serve as a server section. Therefore, the server section 90 has a communication control section 70 and a data management section 80 .

通信制御部70は、同じ表示装置2内のクライアント部20における通信制御部70、及び通信ネットワーク9を介して他の表示装置2内のクライアント部20における通信制御部70との通信を制御する。データ管理部80は、操作データや画像データ等を管理する。 The communication control unit 70 controls communication with the communication control unit 70 in the client unit 20 in the same display device 2 and with the communication control unit 70 in the client unit 20 in another display device 2 via the communication network 9 . The data management unit 80 manages operation data, image data, and the like.

<動作モードの制御に関する表示装置の機能>
図6は、動作モードの制御に関する表示装置2の機能を示す機能ブロック図の一例である。表示装置2は図4に示した表示部29、ホワイトボードアプリ53、サイネージアプリ54、動作モード制御部52、及び、人推定部51を有している。
<Functions of Display Device Concerning Operation Mode Control>
FIG. 6 is an example of a functional block diagram showing functions of the display device 2 related to control of operation modes. The display device 2 has the display unit 29, the whiteboard application 53, the signage application 54, the operation mode control unit 52, and the person estimation unit 51 shown in FIG.

まず、カメラ260は繰り返し周辺を撮像しており、撮像して得られた画像データを人推定部51に送出する。人推定部51は画像処理を行い、画像データに人が写っているか否かを推定する。例えば、ディープラーニングなどの機械学習で生成した識別器を用いて、人が写っているか否かの分類を行えばよい。機械学習とは、コンピュータに人のような学習能力を獲得させるための技術であり、コンピュータが、データ識別等の判断に必要なアルゴリズムを事前に取り込まれる学習データから自律的に生成し、新たなデータについてこれを適用して予測を行う技術のことをいう。機械学習のための学習方法は、教師あり学習、教師なし学習、半教師学習、強化学習、深層学習のいずれかの方法でもよく、更に、これらの学習方法を組み合わせた学習方法でもよく、機械学習のための学習方法は問わない。 First, the camera 260 repeatedly images the surroundings, and sends the image data obtained by the imaging to the human estimation unit 51 . A person estimation unit 51 performs image processing and estimates whether or not a person is shown in the image data. For example, a classifier generated by machine learning such as deep learning may be used to classify whether or not a person is captured. Machine learning is a technology that enables computers to acquire human-like learning abilities. Computers autonomously generate algorithms necessary for judgments such as data identification from pre-loaded learning data. It is a technology that applies this to data and makes predictions. The learning method for machine learning may be supervised learning, unsupervised learning, semi-supervised learning, reinforcement learning, or deep learning, or may be a learning method combining these learning methods. Any learning method for

動作モード制御部52は、ユーザによってディスプレイ3上に電子ペン4のペン先、電子ペン4のペン尻、又は、手Hが押下(タッチ)された動作等のイベントが生じたか否かを座標検知部22から取得する。以下単に「ディスプレイの操作」の検出と称する。動作モード制御部52は、周辺の人の検知結果及びディスプレイ3の操作の検出結果に応じて、動作モードを制御する。 The operation mode control unit 52 detects the coordinates of whether or not an event such as an operation of pressing (touching) the tip of the electronic pen 4, the tip of the electronic pen 4, or the hand H on the display 3 by the user has occurred. Acquired from the unit 22 . Hereinafter, this detection is simply referred to as "display operation" detection. The operation mode control unit 52 controls the operation mode according to the detection result of the surrounding people and the detection result of the operation of the display 3 .

図1にて説明したように、ホワイトボードアプリ53は動作モードに関係なく起動しているので座標検知部22が有効である。なお、図6では座標検知部22がディスプレイ3の操作を検出しているが、ディスプレイ3の操作はハード的には接触センサ214により検出される。したがって、ホワイトボードアプリ53は動作モードに関係なく起動するのでなく、ホワイトボードモードでなければ終了してもよい。 As described with reference to FIG. 1, the whiteboard application 53 is activated regardless of the operation mode, so the coordinate detection unit 22 is effective. Although the coordinate detection unit 22 detects the operation of the display 3 in FIG. 6, the operation of the display 3 is detected by the contact sensor 214 in terms of hardware. Therefore, the whiteboard application 53 does not start regardless of the operation mode, and may be terminated if it is not in the whiteboard mode.

A.まず、ディスプレイ3の操作が検出されたか否かが優先され、ディスプレイ3の操作が検出された場合、ホワイトボードアプリ53をアクティブにする。したがって、ホワイトボードモードになる。 A. First, priority is given to whether or not an operation of the display 3 is detected, and when an operation of the display 3 is detected, the whiteboard application 53 is activated. Therefore, it is in whiteboard mode.

B.ディスプレイ3の操作が検出されず、周辺に人がいる場合、サイネージアプリ54を起動する。したがって、サイネージモードになる。 B. If the operation of the display 3 is not detected and there are people around, the signage application 54 is activated. Therefore, it is in signage mode.

C.ディスプレイ3の操作が検出されず、周辺に人がいない場合、表示部29を消灯する。したがって、スタンバイモードになる。サイネージアプリ54が起動している場合は終了させる。表示部29を消灯するとはLEDや陰極管などの表示部の光源をOFFにすることをいう。図4に示したクライアント部20やサーバ部90は動作しているので、表示装置2はディスプレイ3の操作を検出できる。 C. When the operation of the display 3 is not detected and there are no people around, the display unit 29 is turned off. Therefore, it goes into standby mode. If the signage application 54 is running, terminate it. Turning off the display section 29 means turning off the light source of the display section such as an LED or cathode tube. Since the client section 20 and the server section 90 shown in FIG. 4 are operating, the display device 2 can detect the operation of the display 3 .

なお、ホワイトボードモードにおいてサイネージアプリ54は停止するのでなくバックグラウンドで動作していてもよい。サイネージモードにおいてホワイトボードアプリ53はバックグラウンドで動作するのでなく終了していてもよい。スタンバイモードにおいてサイネージアプリ54は停止するのでなくバックグラウンドで動作していてもよい。スタンバイモードにおいてホワイトボードアプリ53はバックグラウンドで動作するのでなく終了していてもよい。 Note that the signage application 54 may operate in the background in the whiteboard mode instead of stopping. In the signage mode, the whiteboard application 53 may be terminated instead of operating in the background. In the standby mode, the signage application 54 may operate in the background instead of stopping. In the standby mode, the whiteboard application 53 may be terminated rather than running in the background.

<動作手順>
図7,図8を用いて、動作モードの遷移例について説明する。まず、図7は、スタンバイモードからサイネージモードへの遷移について説明するシーケンス図の一例である。
<Operating procedure>
A transition example of the operation mode will be described with reference to FIGS. 7 and 8. FIG. First, FIG. 7 is an example of a sequence diagram explaining transition from standby mode to signage mode.

S1:ユーザが表示装置2に近づいたとする。 S1: Assume that the user approaches the display device 2 .

S2:カメラ260などの人感検知センサがユーザを検出するので、人推定部51は周辺に人がいると推定する。 S2: Since the human detection sensor such as the camera 260 detects the user, the human estimator 51 estimates that there are people nearby.

S3:動作モード制御部52は、定期的に、人の検知結果、及び、ディスプレイ3の操作の検出結果を取得する。そして、人の検知結果及びディスプレイ3の操作の検出結果に応じて以下のように動作モードを制御する。 S3: The operation mode control unit 52 periodically acquires the human detection result and the operation detection result of the display 3 . Then, the operation mode is controlled as follows according to the detection result of the person and the detection result of the operation of the display 3 .

・すでにホワイトボードモードである場合
S4:すでにホワイトボードモードであり、ユーザが検知されたので、動作モード制御部52はホワイトボードモードを継続する。
S4-2:ホワイトボードモードにおいて周辺に人がいてもディスプレイの操作が一定時間、検出されない場合、動作モード制御部52はサイネージモードに遷移する。
・If you are already in whiteboard mode
S4: Since the whiteboard mode is already on and the user has been detected, the operation mode control unit 52 continues the whiteboard mode.
S4-2: In the whiteboard mode, if the display operation is not detected for a certain period of time even if there are people around, the operation mode control unit 52 transitions to the signage mode.

・すでにサイネージモードである場合
S5:すでにサイネージモードであり、ユーザが検知されたので、動作モード制御部52はサイネージモードを継続する。
S5-2:サイネージモードでディスプレイ3の操作が検出されるとホワイトボードモードに遷移する。
・If you are already in signage mode
S5: Since the signage mode is already set and the user has been detected, the operation mode control unit 52 continues the signage mode.
S5-2: When an operation on the display 3 is detected in the signage mode, the mode transitions to the whiteboard mode.

・スタンバイモードである場合
S6:スタンバイモードの状態でユーザが検知されたので、動作モード制御部52はサイネージモードに遷移すると判断する。
S7:このため、動作モード制御部52はサイネージアプリ54を起動させる。
・When in standby mode
S6: Since the user is detected in the standby mode state, the operation mode control unit 52 determines to transition to the signage mode.
S7: Therefore, the operation mode control unit 52 activates the signage application 54 .

図8は、サイネージモードからスタンバイモードへの遷移について説明するシーケンス図の一例である。 FIG. 8 is an example of a sequence diagram illustrating transition from signage mode to standby mode.

S11:ユーザが表示装置2から離れる。 S11: The user leaves the display device 2;

S12:カメラ260などの人感検知センサがユーザを検出しなくなるので、人推定部51は周辺に人がいないと推定する。 S12: Since the human detection sensor such as the camera 260 stops detecting the user, the human estimation unit 51 estimates that there are no people around.

S13:動作モード制御部52は、定期的に、人の検知結果、及び、ディスプレイ3の操作の検出結果を取得する。そして、人の検知結果及びディスプレイの操作の検出結果に応じて以下のように動作モードを制御する。 S<b>13 : The operation mode control unit 52 periodically acquires the human detection result and the detection result of the operation of the display 3 . Then, the operation mode is controlled as follows according to the detection result of the person and the detection result of the operation of the display.

・すでにホワイトボードモードである場合
S14:すでにホワイトボードモードであり、ユーザが検知されないので、動作モード制御部52はホワイトボードモードを継続する。
S14-2:ホワイトボードモードでディスプレイ3の操作が一定時間、検出されなければ、やがてスタンバイモードに遷移する。
・If you are already in whiteboard mode
S14: Since the whiteboard mode is already set and the user is not detected, the operation mode control section 52 continues the whiteboard mode.
S14-2: If the operation of the display 3 is not detected for a certain period of time in the whiteboard mode, it will soon transition to the standby mode.

・サイネージモードである場合
S15:サイネージモードであり、ユーザが検知されないので、動作モード制御部52はスタンバイモードに遷移すると判断する。
S16:このため、動作モード制御部52はサイネージアプリ54を終了し、表示部29を消灯にする。
・When in signage mode
S15: Since the mode is the signage mode and the user is not detected, the operation mode control unit 52 determines to transition to the standby mode.
S16: Therefore, the operation mode control unit 52 terminates the signage application 54 and turns off the display unit 29 .

・すでにスタンバイモードである場合
S17:すでにスタンバイモードの状態でユーザが検知されないので、動作モード制御部52はスタンバイモードを継続する。
・When already in standby mode
S17: Since the user is not detected in the standby mode already, the operation mode control section 52 continues the standby mode.

<人推定部の変形例>
本実施形態では人推定部51が、カメラ260などの人感検知センサの検出結果を利用して周辺に人が存在するか否かを推定したが、このようなハードウェアを使用せずに、現在の時刻から周辺に人が存在するか否かを推定してもよい。この場合、表示装置2には、予め周辺に人がいる時間帯が設定されている。例えば、オフィスや工場等で使用される場合は就業時間が設定される。表1は、このような時間帯が設定された時間帯設定情報の一例である。
<Modified example of human estimation unit>
In the present embodiment, the human estimating unit 51 estimates whether or not a person exists in the vicinity using the detection result of the human detection sensor such as the camera 260. However, without using such hardware, It may be estimated from the current time whether or not there is a person in the vicinity. In this case, the display device 2 is set in advance with a time period during which there are people in the vicinity. For example, when used in offices, factories, etc., working hours are set. Table 1 is an example of time zone setting information in which such time zones are set.

Figure 0007279425000001
表1の時間帯設定情報には、「人がいる時間帯」として「9時~18時」が設定されている。「人がいる時間帯」はサイネージモードの有効時間である。「人がいる時間帯」は複数に分けて設定されてもよいし、ユーザが任意の時間帯を設定できる。時間帯設定情報は、例えば人推定部51が少なくとも参照できるように記憶されているか又はネットワークを介して外部から送信される。
Figure 0007279425000001
In the time zone setting information in Table 1, "9:00 to 18:00" is set as the "time zone where people are present". "People's time period" is the effective time of the signage mode. The "time zone with people" may be divided into a plurality of settings, or the user can set an arbitrary time zone. For example, the time period setting information is stored so that the person estimation unit 51 can at least refer to it, or it is transmitted from the outside via a network.

なお、時間帯設定情報を使用する場合、図7,図8のシーケンス図は実際に人が接近するか離れるか判断されるステップS1,S11が不要になる。しかし、人推定部51は時間帯設定情報と現在の時刻に基づいて人が存在するか否かの推定結果をステップS2,S12で動作モード制御部52に送出すればよく、全体の手順は同様でよい。 When the time zone setting information is used, the sequence diagrams of FIGS. 7 and 8 do not require steps S1 and S11 for judging whether a person actually approaches or leaves. However, the person estimating unit 51 only needs to send the result of estimating whether or not a person exists based on the time zone setting information and the current time to the operation mode control unit 52 in steps S2 and S12, and the overall procedure is the same. OK.

<表示装置の変形例>
表示装置2としては図2に示したディスプレイ3を有する形態の他、プロジェクタを利用したものがある。図9を用いて表示システムを説明する。
<Modified example of display device>
As the display device 2, in addition to the form having the display 3 shown in FIG. 2, there is a form using a projector. The display system will be described with reference to FIG.

図9は、表示システムの構成例を示す図である。図9では、通常のホワイトボード4130の上辺にプロジェクタ4110が設置されている。このプロジェクタ4110が表示装置2に相当する。通常のホワイトボード4130とは、タッチパネルと一体のフラットパネルディスプレイではなく、ユーザがマーカで直接、手書きするホワイトボードである。なお、ホワイトボードは黒板でもよく、映像を投影するだけの広さの平面であればよい。 FIG. 9 is a diagram illustrating a configuration example of a display system. In FIG. 9, a projector 4110 is installed on the upper side of a normal whiteboard 4130 . This projector 4110 corresponds to the display device 2 . The normal whiteboard 4130 is not a flat panel display integrated with a touch panel, but a whiteboard on which the user directly writes with markers. Note that the whiteboard may be a blackboard, and may be a flat surface that is large enough to project an image.

プロジェクタ4110は超短焦点の光学系を有しており、10cm程度から歪みの少ない映像をホワイトボード4130に投影できる。この映像は、無線又は有線で接続されたPC400ー1から送信されてもよいし、プロジェクタ4110が記憶していてもよい。 The projector 4110 has an ultra-short focal length optical system, and can project an image with little distortion on the whiteboard 4130 from about 10 cm. This image may be transmitted from the PC 400 - 1 connected wirelessly or by wire, or may be stored in the projector 4110 .

ユーザは専用の電子ペン2500を使ってホワイトボード4130に手書きする。電子ペン2500は、ユーザが手書きのためにホワイトボード4130に押しつけるとスイッチがONになり発光する発光部を例えば先端部に有している。光の波長は近赤外や赤外なのでユーザの目には見えない。プロジェクタ4110はカメラを有しており、発光部を撮像して画像を解析し電子ペン2500の方向を特定する。また、電子ペン2500は発光と共に音波を発信しており、プロジェクタ4110は音波の到達時間により距離を算出する。方向と距離により電子ペン2500の位置を特定できる。電子ペン2500の位置にはストロークが描画(投影)される。 The user uses the dedicated electronic pen 2500 to handwrite on the whiteboard 4130 . The electronic pen 2500 has, for example, a light-emitting portion at its tip, which is turned on and emits light when the user presses it against the whiteboard 4130 for handwriting. Since the wavelength of light is in the near infrared or infrared, it is invisible to the user's eyes. The projector 4110 has a camera, captures an image of the light emitting unit, analyzes the image, and identifies the direction of the electronic pen 2500 . Further, the electronic pen 2500 emits light and emits sound waves, and the projector 4110 calculates the distance from the arrival time of the sound waves. The position of the electronic pen 2500 can be identified by the direction and distance. A stroke is drawn (projected) at the position of the electronic pen 2500 .

プロジェクタ4110はメニュー4300を投影するので、ユーザが電子ペン2500でボタンを押下すると、プロジェクタ4110が電子ペン2500の位置とスイッチのON信号により押下されたボタンを特定する。例えば、保存ボタン4310が押下されると、ユーザが手書きしたストローク(座標の集合)がプロジェクタ4110で保存される。プロジェクタ4110は、予め定められたサーバ4120又はUSBメモリ2600等に手書き情報を保存する。手書き情報はページごとに保存されている。画像データではなく座標のまま保存されるので、ユーザが再編集することができる。 Since the projector 4110 projects the menu 4300, when the user presses a button with the electronic pen 2500, the projector 4110 identifies the pressed button based on the position of the electronic pen 2500 and the ON signal of the switch. For example, when the save button 4310 is pressed, the stroke (set of coordinates) handwritten by the user is saved by the projector 4110 . Projector 4110 stores the handwritten information in predetermined server 4120, USB memory 2600, or the like. Handwritten information is stored page by page. Since the coordinates are saved as they are instead of the image data, the user can re-edit them.

本実施形態に適用された場合、プロジェクタ4110は映像のインタフェースから映像を取り込み、電子ペン2500が手書きに使用されているか否か(発光の有無、通信の有無)に応じてホワイトボードを操作中か非操作を判断する。したがって、プロジェクタ4110が使用された表示装置2であっても、スタンバイモードからサイネージモード、又は、サイネージモードからスタンバイモードに遷移できる。 When applied to this embodiment, the projector 4110 captures an image from an image interface, and determines whether the whiteboard is being operated according to whether the electronic pen 2500 is being used for handwriting (whether light is emitted or not, communication is being performed). Judge non-operation. Therefore, even the display device 2 using the projector 4110 can transition from the standby mode to the signage mode or from the signage mode to the standby mode.

<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
Although the best mode for carrying out the present invention has been described above using examples, the present invention is by no means limited to such examples, and various modifications can be made without departing from the scope of the present invention. and substitutions can be added.

例えば、他の拠点と通信している場合に、他の拠点の動作モードを考慮して自拠点の動作モードを制御してよい。例えば、自拠点と他拠点のうち主催者端末を優先して同期させることなどが考えられる。 For example, when communicating with another site, the operation mode of the own site may be controlled in consideration of the operation mode of the other site. For example, it is conceivable to preferentially synchronize the host's terminal among the local site and the other sites.

また、図4、図6などの構成例は、表示装置2の処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。また、表示装置2の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。 4 and 6 are divided according to main functions in order to facilitate understanding of the processing of the display device 2. FIG. The present invention is not limited by the division method or name of the unit of processing. Further, the processing of the display device 2 can be divided into more processing units according to the content of the processing. Also, one processing unit can be divided to include more processing.

上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。 Each function of the embodiments described above may be implemented by one or more processing circuits. Here, the "processing circuit" in this specification means a processor programmed by software to perform each function, such as a processor implemented by an electronic circuit, or a processor designed to perform each function described above. devices such as ASICs (Application Specific Integrated Circuits), DSPs (digital signal processors), FPGAs (field programmable gate arrays) and conventional circuit modules.

1 画像処理システム
2 表示装置
3 ディスプレイ
4 電子ペン
51 人推定部
52 動作モード制御部
53 ホワイトボードアプリ
54 サイネージアプリ
90 サーバ部
1 image processing system 2 display device 3 display 4 electronic pen 51 person estimation unit 52 operation mode control unit 53 whiteboard application 54 signage application 90 server unit

特許第6139854号公報Patent No. 6139854

Claims (6)

手書きデータを表示するホワイトボードモードと、
情報をディスプレイに表示するサイネージモードと、
ディスプレイを消灯するスタンバイモード、の3つのモードのいずれかで動作し
表示装置のディスプレイが操作されている場合に前記ホワイトボードモードで動作する表示装置であって、
前記表示装置の周辺に人が存在するか否かを推定する人推定部と、
人が存在するか否かに応じて、動作モードを遷移させる動作モード制御部と、有し、
前記ホワイトボードモードで動作している場合に、前記ディスプレイの操作が検出されず、前記人推定部が前記表示装置の周辺に人が存在すると推定した場合、前記動作モード制御部は前記サイネージモードに遷移させ、前記ディスプレイの操作が検出されず、前記人推定部が前記表示装置の周辺に人が存在しないと推定した場合、前記動作モード制御部は前記スタンバイモードに遷移させ、
前記スタンバイモードで動作している場合に、前記ディスプレイの操作が検出された場合、前記動作モード制御部は前記ホワイトボードモードに遷移させ、前記人推定部が前記表示装置の周辺に人が存在すると推定した場合、前記動作モード制御部は前記サイネージモードに遷移させ、
前記サイネージモードで動作している場合に、前記ディスプレイの操作が検出された場合、前記動作モード制御部は前記ホワイトボードモードに遷移させ、前記人推定部が前記表示装置の周辺に人が存在しないと推定した場合、前記動作モード制御部は前記スタンバイモードに遷移させることを特徴とする表示装置。
A whiteboard mode that displays handwritten data,
A signage mode that displays information on the display,
Operates in one of three modes: standby mode, which turns off the display ,
A display device that operates in the whiteboard mode when the display of the display device is being operated,
a person estimation unit that estimates whether or not a person exists around the display device;
an operation mode control unit that changes the operation mode depending on whether a person is present;
When operating in the whiteboard mode, if the operation of the display is not detected and the person estimation unit estimates that a person exists around the display device, the operation mode control unit switches to the signage mode. If the operation of the display is not detected and the person estimation unit estimates that there is no person around the display device, the operation mode control unit makes the transition to the standby mode,
When operation of the display is detected while operating in the standby mode, the operation mode control unit transitions to the whiteboard mode, and the human estimation unit determines that a person exists around the display device. When estimated, the operation mode control unit transitions to the signage mode,
When an operation of the display is detected while operating in the signage mode, the operation mode control unit transitions to the whiteboard mode, and the human estimation unit detects that there are no people around the display device. , the operation mode control unit transitions to the standby mode .
前記人推定部は、人感検知センサにより表示装置の周辺に人が存在するか否かを推定することを特徴とする請求項1に記載の表示装置。 2. The display device according to claim 1 , wherein the human estimation unit estimates whether or not a person exists around the display device using a human detection sensor. 前記人推定部は、予め設定されている前記サイネージモードの有効時間と現在の時刻とに基づいて表示装置の周辺に人が存在するか否かを推定することを特徴とする請求項1又は2に記載の表示装置。 3. The person estimating unit estimates whether or not a person exists around the display device based on a preset valid time of the signage mode and a current time. The display device according to . 手書きデータを表示するホワイトボードモードと、
情報をディスプレイに表示するサイネージモードと、
ディスプレイを消灯するスタンバイモード、の3つのモードのいずれかで動作し
表示装置が操作されている場合に前記ホワイトボードモードで動作する表示システムであって、
前記表示装置の周辺に人が存在するか否かを推定する人推定部と、
人が存在するか否かに応じて、動作モードを遷移させる動作モード制御部と、有し、
前記ホワイトボードモードで動作している場合に、前記ディスプレイの操作が検出されず、前記人推定部が前記表示装置の周辺に人が存在すると推定した場合、前記動作モード制御部は前記サイネージモードに遷移させ、前記ディスプレイの操作が検出されず、前記人推定部が前記表示装置の周辺に人が存在しないと推定した場合、前記動作モード制御部は前記スタンバイモードに遷移させ、
前記スタンバイモードで動作している場合に、前記ディスプレイの操作が検出された場合、前記動作モード制御部は前記ホワイトボードモードに遷移させ、前記人推定部が前記表示装置の周辺に人が存在すると推定した場合、前記動作モード制御部は前記サイネージモードに遷移させ、
前記サイネージモードで動作している場合に、前記ディスプレイの操作が検出された場合、前記動作モード制御部は前記ホワイトボードモードに遷移させ、前記人推定部が前記表示装置の周辺に人が存在しないと推定した場合、前記動作モード制御部は前記スタンバイモードに遷移させることを特徴とする表示システム。
A whiteboard mode that displays handwritten data,
A signage mode that displays information on the display,
Operates in one of three modes: standby mode, which turns off the display ,
A display system that operates in the whiteboard mode when the display device is operated,
a person estimation unit that estimates whether or not a person exists around the display device;
an operation mode control unit that changes the operation mode depending on whether a person is present;
When operating in the whiteboard mode, if the operation of the display is not detected and the person estimation unit estimates that a person exists around the display device, the operation mode control unit switches to the signage mode. If the operation of the display is not detected and the person estimation unit estimates that there is no person around the display device, the operation mode control unit makes the transition to the standby mode,
When operation of the display is detected while operating in the standby mode, the operation mode control unit transitions to the whiteboard mode, and the human estimation unit determines that a person exists around the display device. When estimated, the operation mode control unit transitions to the signage mode,
When an operation of the display is detected while operating in the signage mode, the operation mode control unit transitions to the whiteboard mode, and the human estimation unit detects that there are no people around the display device. , the operation mode control unit transitions to the standby mode .
手書きデータを表示するホワイトボードモードと、
情報をディスプレイに表示するサイネージモードと、
ディスプレイを消灯するスタンバイモード、の3つのモードのいずれかで動作し
表示装置のディスプレイが操作されている場合に前記ホワイトボードモードで動作する前記表示装置が行う動作モード制御方法であって、
人推定部が、前記表示装置の周辺に人が存在するか否かを推定するステップと、
動作モード制御部が、人が存在するか否かに応じて、動作モードを遷移させるステップと、
を有し、
前記ホワイトボードモードで動作している場合に、前記ディスプレイの操作が検出されず、前記人推定部が前記表示装置の周辺に人が存在すると推定した場合、前記動作モード制御部は前記サイネージモードに遷移させ、前記ディスプレイの操作が検出されず、前記人推定部が前記表示装置の周辺に人が存在しないと推定した場合、前記動作モード制御部は前記スタンバイモードに遷移させ、
前記スタンバイモードで動作している場合に、前記ディスプレイの操作が検出された場合、前記動作モード制御部は前記ホワイトボードモードに遷移させ、前記人推定部が前記表示装置の周辺に人が存在すると推定した場合、前記動作モード制御部は前記サイネージモードに遷移させ、
前記サイネージモードで動作している場合に、前記ディスプレイの操作が検出された場合、前記動作モード制御部は前記ホワイトボードモードに遷移させ、前記人推定部が前記表示装置の周辺に人が存在しないと推定した場合、前記動作モード制御部は前記スタンバイモードに遷移させることを特徴とする動作モード制御方法。
A whiteboard mode that displays handwritten data,
A signage mode that displays information on the display,
Operates in one of three modes: standby mode, which turns off the display ,
An operation mode control method performed by the display device operating in the whiteboard mode when the display of the display device is being operated,
a step in which a person estimation unit estimates whether or not a person exists around the display device;
an operation mode control unit transitioning the operation mode according to whether or not a person is present;
has
When operating in the whiteboard mode, if the operation of the display is not detected and the person estimation unit estimates that a person exists around the display device, the operation mode control unit switches to the signage mode. If the operation of the display is not detected and the person estimation unit estimates that there is no person around the display device, the operation mode control unit makes the transition to the standby mode,
When operation of the display is detected while operating in the standby mode, the operation mode control unit transitions to the whiteboard mode, and the human estimation unit determines that a person exists around the display device. When estimated, the operation mode control unit transitions to the signage mode,
When an operation of the display is detected while operating in the signage mode, the operation mode control unit transitions to the whiteboard mode, and the human estimation unit detects that there are no people around the display device. The operation mode control method , wherein the operation mode control unit transitions to the standby mode when estimating that .
手書きデータを表示するホワイトボードモードと、
情報をディスプレイに表示するサイネージモードと、
ディスプレイを消灯するスタンバイモード、の3つのモードのいずれかで動作し
表示装置のディスプレイが操作されている場合に前記ホワイトボードモードで動作する前記表示装置を、
前記表示装置の周辺に人が存在するか否かを推定する人推定部と、
人が存在するか否かに応じて、動作モードを遷移させる動作モード制御部、として機能させ、
前記ホワイトボードモードで動作している場合に、前記ディスプレイの操作が検出されず、前記人推定部が前記表示装置の周辺に人が存在すると推定した場合、前記動作モード制御部は前記サイネージモードに遷移させ、前記ディスプレイの操作が検出されず、前記人推定部が前記表示装置の周辺に人が存在しないと推定した場合、前記動作モード制御部は前記スタンバイモードに遷移させ、
前記スタンバイモードで動作している場合に、前記ディスプレイの操作が検出された場合、前記動作モード制御部は前記ホワイトボードモードに遷移させ、前記人推定部が前記表示装置の周辺に人が存在すると推定した場合、前記動作モード制御部は前記サイネージモードに遷移させ、
前記サイネージモードで動作している場合に、前記ディスプレイの操作が検出された場合、前記動作モード制御部は前記ホワイトボードモードに遷移させ、前記人推定部が前記表示装置の周辺に人が存在しないと推定した場合、前記動作モード制御部は前記スタンバイモードに遷移させるためのプログラム。
A whiteboard mode that displays handwritten data,
A signage mode that displays information on the display,
Operates in one of three modes: standby mode, which turns off the display ,
the display device operating in the whiteboard mode when the display of the display device is operated;
a person estimation unit that estimates whether or not a person exists around the display device;
Functioning as an operation mode control unit that transitions the operation mode depending on whether or not there is a person,
When operating in the whiteboard mode, if the operation of the display is not detected and the person estimation unit estimates that a person exists around the display device, the operation mode control unit switches to the signage mode. If the operation of the display is not detected and the person estimation unit estimates that there is no person around the display device, the operation mode control unit makes the transition to the standby mode,
When operation of the display is detected while operating in the standby mode, the operation mode control unit transitions to the whiteboard mode, and the human estimation unit determines that a person exists around the display device. When estimated, the operation mode control unit transitions to the signage mode,
When an operation of the display is detected while operating in the signage mode, the operation mode control unit transitions to the whiteboard mode, and the human estimation unit detects that there are no people around the display device. A program for causing the operation mode control unit to transition to the standby mode when it is estimated that
JP2019044139A 2019-03-11 2019-03-11 DISPLAY DEVICE, DISPLAY SYSTEM, OPERATING MODE CONTROL METHOD, AND PROGRAM Active JP7279425B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019044139A JP7279425B2 (en) 2019-03-11 2019-03-11 DISPLAY DEVICE, DISPLAY SYSTEM, OPERATING MODE CONTROL METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019044139A JP7279425B2 (en) 2019-03-11 2019-03-11 DISPLAY DEVICE, DISPLAY SYSTEM, OPERATING MODE CONTROL METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2020149149A JP2020149149A (en) 2020-09-17
JP7279425B2 true JP7279425B2 (en) 2023-05-23

Family

ID=72429966

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019044139A Active JP7279425B2 (en) 2019-03-11 2019-03-11 DISPLAY DEVICE, DISPLAY SYSTEM, OPERATING MODE CONTROL METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP7279425B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021125249B3 (en) * 2021-07-06 2022-07-14 Fujitsu Client Computing Limited Display device, computer system, method and computer program product

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013130773A (en) 2011-12-22 2013-07-04 Toshiba Tec Corp Display device and control program thereof
JP2013186898A (en) 2012-03-05 2013-09-19 Ricoh Co Ltd Interactive white board and control method
JP2016051214A (en) 2014-08-28 2016-04-11 株式会社リコー Information processing device, information processing method, and information processing system
JP2017064271A (en) 2015-10-01 2017-04-06 東芝メディカルシステムズ株式会社 X-ray computer tomography apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013130773A (en) 2011-12-22 2013-07-04 Toshiba Tec Corp Display device and control program thereof
JP2013186898A (en) 2012-03-05 2013-09-19 Ricoh Co Ltd Interactive white board and control method
JP2016051214A (en) 2014-08-28 2016-04-11 株式会社リコー Information processing device, information processing method, and information processing system
JP2017064271A (en) 2015-10-01 2017-04-06 東芝メディカルシステムズ株式会社 X-ray computer tomography apparatus

Also Published As

Publication number Publication date
JP2020149149A (en) 2020-09-17

Similar Documents

Publication Publication Date Title
JP6094550B2 (en) Information processing apparatus and program
JP6493546B2 (en) Electronic blackboard, storage medium, and information display method
US20190286255A1 (en) Electronic whiteboard, image display method, and recording medium
US20180082663A1 (en) Information processing apparatus, image displaying method, and non-transitory computer readable medium
JP5846270B2 (en) Image processing system and information processing apparatus
JP6020397B2 (en) Image processing apparatus and image processing system
JP2017041178A (en) Display control device, communication terminal, communication system, display control method, and program
JP7279425B2 (en) DISPLAY DEVICE, DISPLAY SYSTEM, OPERATING MODE CONTROL METHOD, AND PROGRAM
JP7143642B2 (en) shared terminal, writing method, program
JP2020197865A (en) Information processing apparatus, information processing method, information processing system, and program
JP2022087633A (en) Display device, erasing method switching method, and program
JP7298224B2 (en) Display device and display method
JP7338330B2 (en) Display device, display method, program
JP2018050285A (en) Communication terminal, communication system, output method, and program
JP7435184B2 (en) Communication device, communication device control method, and program
JP7331578B2 (en) Display device, image display method, program
JP7484568B2 (en) Display device, display method, and program
JP2014238449A (en) Image processor
JP7383959B2 (en) Display device, usage providing method, program, image processing system
JP7314719B2 (en) Display device, display method, program
WO2015186453A1 (en) Coordinate detection device, image processing device, and coordinate detection method
JP7459629B2 (en) Display device, display method, and program
US20230333731A1 (en) Display apparatus, display system, display method, and non-transitory recording medium
JP7287156B2 (en) Display device, display method, program
JP7388159B2 (en) Display device, display method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230424

R151 Written notification of patent or utility model registration

Ref document number: 7279425

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151