JP7331578B2 - Display device, image display method, program - Google Patents

Display device, image display method, program Download PDF

Info

Publication number
JP7331578B2
JP7331578B2 JP2019172088A JP2019172088A JP7331578B2 JP 7331578 B2 JP7331578 B2 JP 7331578B2 JP 2019172088 A JP2019172088 A JP 2019172088A JP 2019172088 A JP2019172088 A JP 2019172088A JP 7331578 B2 JP7331578 B2 JP 7331578B2
Authority
JP
Japan
Prior art keywords
image
display
application
display device
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019172088A
Other languages
Japanese (ja)
Other versions
JP2021051359A (en
Inventor
未友 前田
佑一 河崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2019172088A priority Critical patent/JP7331578B2/en
Publication of JP2021051359A publication Critical patent/JP2021051359A/en
Application granted granted Critical
Publication of JP7331578B2 publication Critical patent/JP7331578B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、表示装置、画像表示方法、及び、プログラムに関する。 The present invention relates to a display device, an image display method, and a program.

コンピュータのディスプレイ等の視覚出力デバイスに表示された画面の一部又は全体のコピーを保存する技術又は保存した画像(以下、第一画像という)が知られている。第一画像はスクリーンショットやキャプチャ画像等と呼ばれる場合がある。ユーザは必要な場合に保存しておいた第一画像をディスプレイ等に表示することができる。したがって、ユーザは記録しておきたい画面を手軽に保存しておき後で再利用できる。 Techniques for saving a copy of part or all of a screen displayed on a visual output device such as a computer display or a saved image (hereinafter referred to as first image) are known. The first image may be called a screenshot, captured image, or the like. The user can display the saved first image on a display or the like when necessary. Therefore, the user can easily save the screen that he/she wants to record and reuse it later.

タッチパネルにペンや指で手書きしたデータを表示する表示装置においても、第一画像の生成を可能にする技術が考案されている(例えば、特許文献1参照)。特許文献1には、手書きデータの第一画像を保存する表示装置について開示されている。 A technique has been devised that enables generation of a first image even in a display device that displays data handwritten with a pen or a finger on a touch panel (see, for example, Patent Document 1). Patent Literature 1 discloses a display device that stores a first image of handwritten data.

しかしながら、従来の第一画像では、ディスプレイ等に表示されていた各アプリケーションソフトの画像(以下、第二画像という)を後からユーザが編集できないという問題があった。表示装置は手書き用のアプリケーションソフト(以下、単に第一アプリという)を実行することで手書きデータを表示するなどの機能を提供するが、第一アプリ以外のアプリ(以下、第二アプリという)も実行できる。したがって、第二アプリが実行されている場合に、第一画像が生成されると、第二アプリが生成する第二画像を含む第一画像が生成される。 However, the conventional first image has a problem that the user cannot edit the image of each application software displayed on the display or the like (hereinafter referred to as the second image) later. The display device provides functions such as displaying handwritten data by executing application software for handwriting (hereinafter simply referred to as the first application), but applications other than the first application (hereinafter referred to as the second application) are also provided. can run. Therefore, when the first image is generated while the second application is running, the first image including the second image generated by the second application is generated.

この第二画像により第一画像の一部が隠れてしまうため、ユーザとしては第二画像を移動させたり削除したりしたい場合などがあるが、従来は、第二画像をこのように編集することはできなかった。 Since the second image partially hides the first image, the user may want to move or delete the second image. I couldn't.

本発明は、上記課題に鑑み、ユーザが編集できる第二画像を表示することができる表示装置等を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a display device or the like capable of displaying a second image that can be edited by a user.

上記課題に鑑み、本発明は、第一アプリが生成する第一画面に重ねて第二アプリが生成する第二画面を表示する表示装置であって、前記第一画面に表示されている第一画像を取得する全体画像取得部と、前記第二画面に表示されている第二画像を取得する第二画像取得部と、前記第一画像に重ねて前記第二画像を表示する表示処理部と、前記第二画像への編集を受け付ける操作処理部と、ペン又は手による手書きデータを手書きデータ画像に変換する手書きデータ処理部と、を有し、前記第一画面には、前記手書きデータ画像と外部から入力された入力画像が重ねて表示されており、前記第一画像を取得する操作が入力された場合、入力画像取得部が前記入力画像を取得し、前記第二画像取得部が前記第二画像を取得し、 前記手書きデータ処理部は、前記手書きデータ画像に前記第二画像を配置し、前記表示処理部は、前記第二画像が配置された前記手書きデータ画像と前記入力画像を重ねて表示する、ことを特徴とする。
In view of the above problems, the present invention provides a display device for displaying a second screen generated by a second application superimposed on a first screen generated by a first application, wherein the first screen displayed on the first screen is displayed on the first screen. a whole image acquisition unit that acquires an image; a second image acquisition unit that acquires a second image displayed on the second screen; and a display processing unit that displays the second image superimposed on the first image. , an operation processing unit that receives edits to the second image, and a handwritten data processing unit that converts handwritten data with a pen or hand into a handwritten data image, and the first screen displays the handwritten data image and When an input image input from the outside is superimposed and displayed, and an operation for obtaining the first image is input, the input image obtaining unit obtains the input image, and the second image obtaining unit obtains the first image. obtaining two images, wherein the handwritten data processing unit arranges the second image on the handwritten data image, and the display processing unit overlaps the handwritten data image in which the second image is arranged and the input image; It is characterized by displaying

ユーザが編集できる第二画像を表示することができる表示装置等を提供することができる。 A display device or the like can be provided that can display a second image that can be edited by the user.

比較例である表示装置の概略的な動作を説明する図の一例である。It is an example of the figure explaining the schematic operation|movement of the display apparatus which is a comparative example. 表示装置が生成する第一画像の一例を示す図である。It is a figure which shows an example of the 1st image which a display apparatus produces|generates. 画像処理システムの全体構成図の一例である。1 is an example of an overall configuration diagram of an image processing system; FIG. 表示装置のハードウェア構成図の一例である。1 is an example of a hardware configuration diagram of a display device; FIG. 表示装置の機能をブロック状に分けて説明する機能ブロック図の一例である。It is an example of the functional block diagram which divides the function of a display apparatus into a block form, and demonstrates it. 各画像レイヤの構成図の一例である。It is an example of the block diagram of each image layer. ソフトウェア構成の一例を示す図である。It is a figure which shows an example of a software configuration. 第二画像の保存に関する表示装置の機能をブロックに分けて示す機能ブロック図の一例である。FIG. 10 is an example of a functional block diagram showing functions of a display device related to saving a second image divided into blocks; 手書きデータ画像における第二画像の配置を説明する図である。It is a figure explaining arrangement|positioning of the 2nd image in a handwritten data image. OSが提供する関数の一例を示す図である。FIG. 3 is a diagram illustrating an example of functions provided by an OS; FIG. アプリ登録画面の一例を示す図である。It is a figure which shows an example of an application registration screen. 表示装置が第一画像を生成する手順を示すフローチャート図の一例である。It is an example of the flowchart figure which shows the procedure which a display apparatus produces|generates a 1st image. 図12のステップS2の処理の手順を示すフローチャート図の一例である。FIG. 13 is an example of a flowchart diagram showing a procedure of processing in step S2 of FIG. 12; 2つの第二画像が配置された手書きデータ画像の一例を示す図である。It is a figure which shows an example of the handwritten data image in which two 2nd images are arranged. 登録アプリ記憶部に予め第二アプリが登録されていない場合の、図12のステップS2の処理の手順を示すフローチャート図の一例である。FIG. 13 is an example of a flowchart diagram showing the procedure of the processing in step S2 of FIG. 12 when the second application is not registered in advance in the registered application storage unit; 登録アプリ記憶部に登録されている第二アプリを利用した図12のステップS2の処理の手順を示すフローチャート図である。FIG. 13 is a flow chart diagram showing a procedure of processing in step S2 of FIG. 12 using a second application registered in a registered application storage unit; 表示装置の他の構成例を示す図である。FIG. 10 is a diagram showing another configuration example of the display device; 表示装置の他の構成例を示す図である。FIG. 10 is a diagram showing another configuration example of the display device; 表示装置の他の構成例を示す図である。FIG. 10 is a diagram showing another configuration example of the display device; 表示装置の他の構成例を示す図である。FIG. 10 is a diagram showing another configuration example of the display device;

以下、本発明を実施するための形態の一例として、表示装置と表示装置が行う画像表示方法について説明する。 A display device and an image display method performed by the display device will be described below as an example of a mode for carrying out the present invention.

<比較例>
まず、本実施形態の表示装置を説明するに際して、好適な比較例を説明する。この比較例は従来技術とは限らない点に注意されたい。
<Comparative example>
First, a suitable comparative example will be described when describing the display device of the present embodiment. Note that this comparative example is not necessarily prior art.

図1は比較例である表示装置の概略的な動作を説明する図の一例である。図1(a)は表示装置がディスプレイ3に表示する画面(以下、第一画面9という)の一例である。第一画面9は、ユーザがタッチパネルにペンや指で手書きしたデータを表示する第一アプリが表示している。第一画面9に重ねて、2つの第二アプリがウィンドウを形成しており、ウィンドウにはアプリがそれぞれの第二画面8A,8Bを表示している。図1(a)に示すように第二画面8A,8Bは手書きデータと重なっている。なお、ウィンドウとはディスプレイ画面上に設けられた情報を表示するための長方形の領域である。 FIG. 1 is an example of a diagram explaining a schematic operation of a display device as a comparative example. FIG. 1(a) is an example of a screen displayed on the display 3 by the display device (hereinafter referred to as a first screen 9). The first screen 9 is displayed by a first application that displays data handwritten by the user on the touch panel with a pen or finger. Two second applications form windows superimposed on the first screen 9, and the applications display respective second screens 8A and 8B in the windows. As shown in FIG. 1(a), the second screens 8A and 8B overlap the handwritten data. A window is a rectangular area for displaying information provided on the display screen.

なお、以下では、第二画像11A,11Bのうち任意の第二画像を第二画像11といい、第二画面8A,8Bのうち任意の第二画面を第二画面8という。 An arbitrary second image of the second images 11A and 11B is hereinafter referred to as a second image 11, and an arbitrary second screen of the second screens 8A and 8B is referred to as a second screen 8 hereinafter.

第一画面9がコピーされた第一画像12を生成する操作をユーザが表示装置に入力すると、表示装置が第一画像12を生成する。図1(b)は比較例としての第一画像12の一例を示す。表示装置が生成する第一画像12には第二画像11A,11Bが含まれるが、表示装置は第二画面8A,8Bの存在を意識しないため、第二画像11A,11Bは第一画像12の一部である(一体化している)。したがって、ユーザが手書きデータを確認したくても、第二画像11を移動したり縮小したりするなどの編集ができなかった。 When the user inputs an operation to the display device to generate the first image 12 in which the first screen 9 is copied, the display device generates the first image 12 . FIG. 1B shows an example of the first image 12 as a comparative example. The first image 12 generated by the display device includes the second images 11A and 11B, but the display device is unaware of the existence of the second screens 8A and 8B. It is a part (integrated). Therefore, even if the user wants to check the handwritten data, editing such as moving or reducing the size of the second image 11 is not possible.

<本実施形態の表示装置の動作の概略>
次に、図2を用いて、本実施形態の表示装置の概略的な動作について説明する。図2は本実施形態の表示装置が生成する第一画像12を説明する図である。図2(a)については図1(a)と同様である。
<Outline of operation of the display device of the present embodiment>
Next, schematic operation of the display device of this embodiment will be described with reference to FIG. FIG. 2 is a diagram for explaining the first image 12 generated by the display device of this embodiment. FIG. 2(a) is the same as FIG. 1(a).

ユーザが第一画面9の第一画像12を生成する操作を表示装置に入力すると、表示装置が第一画像12と第二画像11を生成する。図2(b)は、第一画像12と第二画像11を模式的に示す。表示装置は、起動している第二アプリを検出し、第二アプリが生成する第二画面8A,8Bを第一画像12とは別の画像として保存する。図2(b)に示すように、第一画像12とは別に第二画像11A、11Bが生成される。第一画像12と第二画像11A、11Bとは独立した別の画像となる(例えば合計3つの画像が生成される)。 When the user inputs an operation to generate the first image 12 of the first screen 9 to the display device, the display device generates the first image 12 and the second image 11 . FIG. 2B schematically shows the first image 12 and the second image 11. FIG. The display device detects the running second application and saves the second screens 8A and 8B generated by the second application as images different from the first image 12 . Second images 11A and 11B are generated separately from the first image 12, as shown in FIG. 2(b). The first image 12 and the second images 11A and 11B are separate images (for example, a total of three images are generated).

図2(c)は、第一画像12に重ねて表示された第二画像11A、11Bを示す。第一画像12と第二画像11A、11Bとは独立した別の画像なので、ユーザは第一画像12上の第二画像11A,11Bに対し移動、縮小、拡大、削除、又は回転などの編集を行うことができ、第二画像11A、11Bの下側にある手書きデータを確認することができる。 FIG. 2C shows the second images 11A and 11B superimposed on the first image 12 and displayed. Since the first image 12 and the second images 11A and 11B are independent images, the user can edit the second images 11A and 11B on the first image 12 by moving, reducing, enlarging, deleting, or rotating them. and the handwritten data under the second images 11A, 11B can be confirmed.

このように、本実施形態の表示装置は、第二画面8を第一画像12とは別に第二画像11として保存するので、第二画像11を移動したり縮小したりするなどの編集が可能になる。 Thus, the display device of the present embodiment saves the second screen 8 as the second image 11 separately from the first image 12, so editing such as moving or reducing the size of the second image 11 is possible. become.

<用語について>
第一画面9は、第一アプリが生成する画面である。第一アプリは表示装置の主要な機能を提供するアプリであり、主にディスプレイ3のほぼ全体をカバーする第一画面9を生成する。第二画面8は第一アプリ以外のアプリ(これを第二アプリという)が生成する画面である。第二画面8は第一画面9に対し重なっている。ただし、第一画面9はディスプレイ3の全体をカバーしなくてもよい。
<Terms>
The first screen 9 is a screen generated by the first application. The first application is an application that provides the main functions of the display device, and mainly generates the first screen 9 covering almost the entire display 3 . The second screen 8 is a screen generated by an application other than the first application (this is called a second application). The second screen 8 overlaps the first screen 9 . However, the first screen 9 does not have to cover the entire display 3 .

手書きデータとは、ディスプレイ上でユーザが入力手段を連続的に移動させた座標点列を軌跡として表示したデータである。また、ユーザがディスプレイに入力手段を押しつけてから連続的に移動させた後、ディスプレイから離すという一連の操作をストロークといい、ストロークにより手書きされたデータをストロークデータという場合がある。手書きデータは1つ以上のストロークデータを有するが、本実施形態では区別せずに手書きデータという。 Handwritten data is data in which a sequence of coordinate points is displayed as a trajectory on the display by the user continuously moving the input means. A series of operations in which the user presses the input means against the display, moves it continuously, and then releases it from the display is called a stroke, and data handwritten by the stroke is sometimes called stroke data. Handwritten data has one or more stroke data, but in this embodiment, it is called handwritten data without distinction.

<システムの概要>
図3は、本実施形態の画像処理システム1の全体構成図である。なお、図3では、説明を簡略化するために、2台の表示装置2a,2b及びこれに付随する電子ペン4a,4b等を示しているだけであって、3台以上の表示装置2や電子ペン等を利用してもよい。
<Overview of the system>
FIG. 3 is an overall configuration diagram of the image processing system 1 of this embodiment. In addition, in order to simplify the explanation, FIG. An electronic pen or the like may be used.

図3に示されているように、画像処理システム1は、複数の表示装置2a,2b、複数の電子ペン4a,4b、USBメモリ5a,5b、外部装置6a,6b、テレビ(ビデオ)会議端末7a,7b、及びPC(Personal Computer)8を有する。また、表示装置2a,2b、及びPC8は、通信ネットワークNを介して通信可能に接続されている。更に、複数の表示装置2a,2bには、それぞれディスプレイ3a,3bが設けられている。 As shown in FIG. 3, the image processing system 1 includes a plurality of display devices 2a and 2b, a plurality of electronic pens 4a and 4b, USB memories 5a and 5b, external devices 6a and 6b, and a television (video) conference terminal. 7a, 7b, and a PC (Personal Computer) 8. Also, the display devices 2a, 2b and the PC 8 are connected via a communication network N so as to be able to communicate with each other. Furthermore, displays 3a and 3b are provided in the plurality of display devices 2a and 2b, respectively.

また、表示装置2aには、電子ペン4aによって生じたイベント(ディスプレイ3aに電子ペン4aのペン先、又は、電子ペン4aのペン尻のタッチ)による描画された画像を、ディスプレイ3aに表示させることができる。なお、電子ペン4aだけでなく、ユーザの手Ha等によって生じたイベント(拡大、縮小、ページめくり等のジェスチャ)に基づいて、ディスプレイ3a上に表示されている画像を変更させることもできる。 In addition, the display device 2a can display an image drawn by an event caused by the electronic pen 4a (touching the tip of the electronic pen 4a or the tip of the electronic pen 4a on the display 3a). can be done. It is also possible to change the image displayed on the display 3a based not only on the electronic pen 4a but also on the basis of events (gestures such as enlargement, reduction, page turning, etc.) generated by the user's hand Ha or the like.

また、表示装置2aには、USBメモリ5aが接続可能であり、表示装置2aはUSBメモリ5aからPDF等の電子ファイルを読み出したり、表示装置2aはUSBメモリ5aに電子ファイルを記録したりすることができる。また、表示装置2aには、DisplayPort(登録商標)、DVI(Digital Visual Interface)、HDMI(登録商標。High-Definition Multimedia Interface)及びVGA(Video Graphics Array)等の規格による通信が可能なケーブル10a1を介して、外部装置6aが接続されている。ケーブル10a1はネットワークでもよい。 A USB memory 5a can be connected to the display device 2a. The display device 2a can read electronic files such as PDF files from the USB memory 5a, and the display device 2a can record electronic files in the USB memory 5a. can be done. In addition, the display device 2a is provided with a cable 10a1 capable of communication according to standards such as DisplayPort (registered trademark), DVI (Digital Visual Interface), HDMI (registered trademark: High-Definition Multimedia Interface), and VGA (Video Graphics Array). An external device 6a is connected via. Cable 10a1 may be a network.

そして、表示装置2aは、ディスプレイ3aに対する接触によってイベントを発生させ、このイベントを示すイベント情報を、マウスやキーボード等の入力装置からのイベントと同様に、外部装置6aに送信する。同じく、表示装置2aには、上記規格による通信が可能なケーブル10a2を介して、テレビ(ビデオ)会議端末7aが接続されている。なお、外部装置6a、及びテレビ会議端末7aは、Bluetooth(登録商標)等の各種無線通信プロトコルに準拠した無線通信により、表示装置2aと通信してもよい。 Then, the display device 2a generates an event by touching the display 3a, and transmits event information indicating the event to the external device 6a in the same manner as an event from an input device such as a mouse or a keyboard. Similarly, a television (video) conference terminal 7a is connected to the display device 2a via a cable 10a2 capable of communication according to the above standards. Note that the external device 6a and the video conference terminal 7a may communicate with the display device 2a by wireless communication conforming to various wireless communication protocols such as Bluetooth (registered trademark).

一方、表示装置2bが設置されている他の拠点では、上記と同様に、ディスプレイ3bを備えた表示装置2b、電子ペン4b、USBメモリ5b、外部装置6b、テレビ会議端末7b、ケーブル10b1、ケーブル10b2が利用される。更に、ユーザの手Hb等によって生じたイベントに基づいて、ディスプレイ3b上に表示されている画像を変更させることもできる。 On the other hand, at other bases where the display device 2b is installed, similarly to the above, the display device 2b having the display 3b, the electronic pen 4b, the USB memory 5b, the external device 6b, the video conference terminal 7b, the cable 10b1, the cable 10b2 is utilized. Furthermore, it is also possible to change the image displayed on the display 3b based on an event caused by the user's hand Hb or the like.

これにより、一の拠点で表示装置2aのディスプレイ3a上に描画された画像は、他の拠点で表示装置2bのディスプレイ3b上にも表示され、逆に他の拠点で表示装置2bのディスプレイ3b上に描画された画像は、一の拠点で表示装置2aのディスプレイ3a上に表示される。このように、画像処理システム1では、遠隔地において同じ画像を共有する遠隔共有処理を行うことができるため、遠隔地での会議等に用いると、非常に便利である。 As a result, an image drawn on the display 3a of the display device 2a at one site is also displayed on the display 3b of the display device 2b at another site, and vice versa. is displayed on the display 3a of the display device 2a at one site. As described above, the image processing system 1 can perform remote sharing processing for sharing the same image at a remote location, and is therefore very convenient when used for a conference or the like at a remote location.

なお、以下では、複数の表示装置2のうち任意の表示装置2を示す場合には「表示装置2」と示す。複数のディスプレイ3のうち任意のディスプレイ3を示す場合には「ディスプレイ3」と示す。複数の電子ペンのうち任意の電子ペンを示す場合には「電子ペン4」と示す。複数のUSBメモリのうち任意のUSBメモリを示す場合には「USBメモリ5」と示す。複数の外部装置のうち任意の外部装置を示す場合には「外部装置6」と示す。複数のテレビ会議端末のうち任意のテレビ会議端末を示す場合には「テレビ会議端末7」と示す。また、複数のユーザの手のうち任意の手を示す場合には「手H」と示す。複数のケーブルのうち任意のケーブルを示す場合には「ケーブル10」と示す。 In addition, hereinafter, when an arbitrary display device 2 among the plurality of display devices 2 is indicated, it is indicated as "display device 2". When indicating an arbitrary display 3 among the plurality of displays 3, it is indicated as "display 3". When indicating an arbitrary electronic pen among a plurality of electronic pens, it is indicated as "electronic pen 4". When indicating an arbitrary USB memory among a plurality of USB memories, it is indicated as "USB memory 5". When indicating an arbitrary external device among a plurality of external devices, it is indicated as "external device 6". When indicating an arbitrary teleconference terminal among a plurality of teleconference terminals, it is indicated as "teleconference terminal 7". Also, when indicating an arbitrary hand among a plurality of users' hands, it is indicated as "hand H". When indicating an arbitrary cable among a plurality of cables, it is indicated as "cable 10".

また、本実施形態では、情報処理装置の一例として、表示装置2を説明するが、これに限るものではなく、情報処理装置の他の例として、電子看板(デジタルサイネージ)、スポーツや天気予報等で利用されるテレストレータ、又は、遠隔画像(映像)診断装置等であってもよい。また、外部装置6の一例としてノートPCが挙げられるが、外部装置6としては、デスクトップ型PCやタブレット型PC、スマートフォン、PDA(Personal Digital Assistant)、デジタルビデオカメラ、デジタルカメラ、ゲーム機等の画像フレームを供給可能な端末であってもよい。なお、これら情報処理装置では表示装置2用の所定のアプリケーション(プログラム)が動作しており、アプリケーションがタッチパネルに対する接触位置に基づいて手書きデータを表示する。 In addition, in the present embodiment, the display device 2 will be described as an example of an information processing device, but it is not limited to this. It may also be a telestrator used in a telescope, or a remote image (video) diagnostic device or the like. An example of the external device 6 is a notebook PC. Examples of the external device 6 include a desktop PC, a tablet PC, a smartphone, a PDA (Personal Digital Assistant), a digital video camera, a digital camera, a game machine, and the like. It may be a terminal capable of supplying frames. A predetermined application (program) for the display device 2 is running in these information processing devices, and the application displays handwritten data based on the touch position on the touch panel.

更に、通信ネットワークNには、インターネット、LAN(Local Area Network)、携帯電話通信網等が含まれる。また、本実施形態では、記録媒体の一例として、USBメモリを説明するが、これに限るものではなく、記録媒体の他の例として、SDカード(登録商標)等の各種記録メディアであってもよい。 Furthermore, the communication network N includes the Internet, a LAN (Local Area Network), a mobile phone communication network, and the like. Further, in this embodiment, a USB memory is described as an example of a recording medium, but it is not limited to this. good.

<表示装置のハードウェア構成>
図4は、表示装置のハードウェア構成図の一例である。図4では表示装置2として電子黒板を想定して説明する。図4に示されているように、表示装置2は、CPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203、SSD(Solid State Drive)204、ネットワークI/F205、及び、外部機器接続I/F(Interface)206を備えている。
<Hardware Configuration of Display Device>
FIG. 4 is an example of a hardware configuration diagram of a display device. In FIG. 4, the display device 2 is assumed to be an electronic blackboard. As shown in FIG. 4, the display device 2 includes a CPU (Central Processing Unit) 201, a ROM (Read Only Memory) 202, a RAM (Random Access Memory) 203, an SSD (Solid State Drive) 204, a network I/ F205 and an external device connection I/F (Interface) 206 are provided.

これらのうち、CPU201は、表示装置2全体の動作を制御する。ROM202は、CPU201やIPL(Initial Program Loader)等のCPU201の駆動に用いられるプログラムを記憶する。RAM203は、CPU201のワークエリアとして使用される。SSD204は、電子黒板用のプログラム等の各種データを記憶する。ネットワークI/F205は、通信ネットワークNとの通信を制御する。外部機器接続I/F206は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、例えば、USB(Universal Serial Bus)メモリ230、外付け機器(マイク240、スピーカ250、カメラ260)である。 Among these, the CPU 201 controls the operation of the entire display device 2 . The ROM 202 stores programs used to drive the CPU 201, such as the CPU 201 and an IPL (Initial Program Loader). A RAM 203 is used as a work area for the CPU 201 . The SSD 204 stores various data such as electronic blackboard programs. A network I/F 205 controls communication with the communication network N. FIG. The external device connection I/F 206 is an interface for connecting various external devices. The external devices in this case are, for example, a USB (Universal Serial Bus) memory 230 and external devices (microphone 240, speaker 250, camera 260).

また、表示装置2は、キャプチャデバイス211、GPU212、ディスプレイ3コントローラ213、接触センサ214、センサコントローラ215、電子ペンコントローラ216、近距離通信回路219、及び近距離通信回路219のアンテナ219a、電源スイッチ222、選択スイッチ類223、及び、カメラ224を備えている。 The display device 2 also includes a capture device 211, a GPU 212, a display 3 controller 213, a contact sensor 214, a sensor controller 215, an electronic pen controller 216, a short-range communication circuit 219, an antenna 219a of the short-range communication circuit 219, and a power switch 222. , selection switches 223 , and a camera 224 .

これらのうち、キャプチャデバイス211は、外付けのPC(Personal Computer))270のディスプレイ3に対して映像情報を静止画又は動画として表示させる。GPU(Graphics Processing Unit)212は、グラフィクスを専門に扱う半導体チップである。ディスプレイ3コントローラ213は、GPU212からの出力画像をディスプレイ3等へ出力するために画面表示の制御及び管理を行う。接触センサ214は、ディスプレイ3上に電子ペン290やユーザの手H等が接触したことを検知する。センサコントローラ215は、接触センサ214の処理を制御する。接触センサ214は、赤外線遮断方式による座標の入力及び座標の検出を行う。この座標の入力及び座標の検出する方法は、ディスプレイ3の上側両端部に設置された2つ受発光装置が、ディスプレイ3に平行して複数の赤外線を放射し、ディスプレイ3の周囲に設けられた反射部材によって反射されて、受光素子が放射した光の光路と同一の光路上を戻って来る光を受光する方法である。接触センサ214は、物体によって遮断された2つの受発光装置が放射した赤外線のIDをセンサコントローラ215に出力し、センサコントローラ215が、物体の接触位置である座標位置を特定する。電子ペンコントローラ216は、電子ペン290と通信することで、ディスプレイ3へのペン先のタッチやペン尻のタッチの有無を判断する。近距離通信回路219は、NFC(Near Field Communication)やBluetooth(登録商標)等の通信回路である。電源スイッチ222は、表示装置2の電源のON/OFFを切り換えるためのスイッチである。選択スイッチ類223は、例えば、ディスプレイ3の表示の明暗や色合い等を調整するためのスイッチ群である。 Among these devices, the capture device 211 causes the display 3 of an external PC (Personal Computer) 270 to display video information as a still image or moving image. A GPU (Graphics Processing Unit) 212 is a semiconductor chip that specializes in graphics. A display 3 controller 213 controls and manages screen display in order to output an output image from the GPU 212 to the display 3 or the like. The contact sensor 214 detects that the electronic pen 290 , the user's hand H, or the like touches the display 3 . A sensor controller 215 controls the processing of the contact sensor 214 . The contact sensor 214 performs coordinate input and coordinate detection using an infrared shielding method. In this method of inputting coordinates and detecting coordinates, two light emitting/receiving devices installed at both ends of the upper side of the display 3 radiate a plurality of infrared rays parallel to the display 3, and are provided around the display 3. This is a method of receiving light that is reflected by a reflecting member and returns along the same optical path as that of light emitted by a light receiving element. The contact sensor 214 outputs to the sensor controller 215 the IDs of the infrared rays emitted by the two light emitting/receiving devices blocked by the object, and the sensor controller 215 identifies the coordinate position, which is the contact position of the object. The electronic pen controller 216 communicates with the electronic pen 290 to determine whether or not the display 3 has been touched with the tip of the pen or the bottom of the pen. The short-range communication circuit 219 is a communication circuit such as NFC (Near Field Communication) or Bluetooth (registered trademark). The power switch 222 is a switch for switching ON/OFF of the power of the display device 2 . The selection switches 223 are, for example, a group of switches for adjusting the brightness, color, etc. of the display on the display 3 .

カメラ224はディスプレイ3の例えばベゼルに内蔵されている撮像装置であり、表示装置2の前方を撮像する。カメラ224があればカメラ260のように外付け型のカメラはなくてもよい。 A camera 224 is an imaging device built in, for example, a bezel of the display 3 and captures an image of the front of the display device 2 . If the camera 224 is present, an external camera like the camera 260 may be omitted.

更に、表示装置2は、バスライン210を備えている。バスライン210は、図4に示されているCPU201等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 Furthermore, the display device 2 has a bus line 210 . A bus line 210 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 201 shown in FIG.

なお、接触センサ214は、赤外線遮断方式に限らず、静電容量の変化を検知することにより接触位置を特定する静電容量方式のタッチパネル、対向する2つの抵抗膜の電圧変化によって接触位置を特定する抵抗膜方式のタッチパネル、接触物体が表示部に接触することによって生じる電磁誘導を検知して接触位置を特定する電磁誘導方式のタッチパネルなどの種々の検出手段を用いてもよい。また、電子ペンコントローラ216が、電子ペン290のペン先及びペン尻だけでなく、電子ペン290のユーザが握る部分や、その他の電子ペンの部分のタッチの有無を判断するようにしてもよい。 In addition, the contact sensor 214 is not limited to the infrared blocking type, but is a capacitive type touch panel that identifies the contact position by detecting a change in capacitance, or identifies the contact position by a voltage change of two opposing resistive films. Various detection means may be used, such as a resistive touch panel that detects an electromagnetic induction generated when a contact object touches the display unit and identifies the contact position. Further, the electronic pen controller 216 may determine whether or not the part of the electronic pen 290 gripped by the user or other parts of the electronic pen is touched, in addition to the tip and the pen butt of the electronic pen 290 .

<表示装置の機能構成>
続いて、図5、図6を用いて、表示装置2の機能構成について説明する。図5は、表示装置2の機能をブロック状に分けて説明する機能ブロック図であり、図6は各画像レイヤの構成図の一例である。
<Functional Configuration of Display Device>
Next, the functional configuration of the display device 2 will be described with reference to FIGS. 5 and 6. FIG. FIG. 5 is a functional block diagram for explaining the functions of the display device 2 divided into blocks, and FIG. 6 is an example of a configuration diagram of each image layer.

表示装置2は、図4に示されているハードウェア構成及びプログラムによって、図5に示されている各機能構成を有する。表示装置2は、最初に遠隔共有処理を開始する「主催装置」となり得ると共に、既に開始されている遠隔共有処理に後から参加する「参加装置」にもなり得る。また、表示装置2は、大きく分けて、クライアント部20及びサーバ部90の両方によって構成されている。 The display device 2 has each functional configuration shown in FIG. 5 by the hardware configuration and programs shown in FIG. The display device 2 can be a "sponsor device" that first starts the remote sharing process, and can also be a "participating device" that later participates in the already started remote sharing process. Further, the display device 2 is roughly divided into both a client section 20 and a server section 90 .

クライアント部20及びサーバ部90は、表示装置2の1台の筐体内で実現される機能である。そして、表示装置2が主催装置となる場合には、この表示装置2では、クライアント部20とサーバ部90が実現される。また、表示装置2が参加装置となる場合には、この表示装置2では、クライアント部20は実現されるが、サーバ部90は実現されない。即ち、図3において、表示装置2aが主催装置で、表示装置2bが参加装置となる場合、表示装置2aのクライアント部20は、同じ表示装置2a内に実現されたサーバ部90を介して、他の表示装置2bのクライアント部20と通信を行う。一方、表示装置2bのクライアント部20は、他の表示装置2a内に実現されたサーバ部90を介して、他の表示装置2aのクライアント部と通信を行う。 The client unit 20 and the server unit 90 are functions implemented within one housing of the display device 2 . When the display device 2 serves as the host device, the display device 2 implements the client section 20 and the server section 90 . Further, when the display device 2 is a participating device, the display device 2 implements the client section 20 but does not implement the server section 90 . That is, in FIG. 3, when the display device 2a is the host device and the display device 2b is the participating device, the client section 20 of the display device 2a can communicate with other devices via the server section 90 realized in the same display device 2a. communicates with the client unit 20 of the display device 2b. On the other hand, the client section 20 of the display device 2b communicates with the client section of the other display device 2a via the server section 90 implemented in the other display device 2a.

〔クライアント部の機能構成〕
続いて、主に図5、図6を用いて、クライアント部20の機能構成について説明する。クライアント部20は、映像取得部21、座標検知部22、自動調整部23、接触検知部24、イベント振分部25、操作処理部26、ジェスチャ処理部27、映像重畳部28、画像処理部30、及び通信制御部60を有する。
[Functional configuration of the client part]
Next, the functional configuration of the client unit 20 will be described mainly with reference to FIGS. 5 and 6. FIG. The client unit 20 includes an image acquisition unit 21, a coordinate detection unit 22, an automatic adjustment unit 23, a contact detection unit 24, an event distribution unit 25, an operation processing unit 26, a gesture processing unit 27, an image superimposition unit 28, and an image processing unit 30. , and a communication control unit 60 .

このうち、映像取得部21は、ケーブル10に接続された外部装置6の出力画像を取得する。映像取得部21は、外部装置6から映像を受信すると、この映像を解析して、この映像によって形成される外部装置6の表示画像である画像フレームの解像度や、この画像フレームの更新頻度などの画像情報を導出し、画像取得部31に出力する。 Of these, the video acquisition unit 21 acquires the output image of the external device 6 connected to the cable 10 . When the image acquisition unit 21 receives the image from the external device 6, it analyzes the image, and determines the resolution of the image frame, which is the display image of the external device 6 formed by the image, the update frequency of the image frame, and the like. Image information is derived and output to the image acquisition unit 31 .

座標検知部22は、ディスプレイ3上でユーザが入力手段を接触させた座標位置を検出する。ユーザがディスプレイ3上で入力手段を連続的に移動させた軌跡が手書きデータである。また、この手書きデータをストロークという場合がある。なお、入力手段は電子ペン4又はユーザの手Hのどちらでもよい。また、座標検知部22は、タッチされた面積も検出する。 The coordinate detection unit 22 detects the coordinate position where the user touches the input means on the display 3 . Handwritten data is the trajectory of the user's continuous movement of the input means on the display 3 . Also, this handwritten data may be called a stroke. Either the electronic pen 4 or the user's hand H may be used as the input means. The coordinate detection unit 22 also detects the touched area.

自動調整部23は、表示装置2の起動時(再起動時と表現してもよい)に起動され、座標検知部22が適切な値を出力できるように、光センサ方式により座標を検知する座標検知部22がセンサーカメラの画像を処理する際のパラメータを調整する。 The automatic adjustment unit 23 is started when the display device 2 is started (it may be expressed as a restart), and the coordinates are detected by an optical sensor method so that the coordinate detection unit 22 can output an appropriate value. It adjusts the parameters when the detection unit 22 processes the image of the sensor camera.

接触検知部24は、ユーザによって生じたイベント(ディスプレイ3上に電子ペン4のペン先又は電子ペン4のペン尻が押下(タッチ)された動作等)を検出する。 The contact detection unit 24 detects an event caused by the user (such as an operation in which the tip of the electronic pen 4 or the tip of the electronic pen 4 is pressed (touched) on the display 3).

イベント振分部25は、座標検知部22によって検知されたイベントの座標位置と接触検知部24によって検出された検出結果を、手書きデータ描画、UI操作、及びジェスチャ操作の各イベントに振り分ける。ここで、「手書きデータ描画」は、ディスプレイ3上に図6に示されている後述の手書きデータ画像(B)が表示されている場合に、ユーザがディスプレイ3上で電子ペン4を押下し、この押下した状態で電子ペン4を移動させ、最終的にディスプレイ3上から電子ペン4を離すまでのイベントである。この手書きデータ描画により、例えば、アルファベット「S」や「T」等がディスプレイ3上に描画される。なお、この「手書きデータ描画」には、画像を描画するだけでなく、既に描画された画像を削除したり、描画された画像を編集したりするイベントも含まれる。 The event distribution unit 25 distributes the coordinate position of the event detected by the coordinate detection unit 22 and the detection result detected by the contact detection unit 24 to each event of handwritten data drawing, UI operation, and gesture operation. Here, "drawing handwritten data" means that the user presses the electronic pen 4 on the display 3 when the handwritten data image (B) shown in FIG. This is an event from moving the electronic pen 4 in this depressed state to finally releasing the electronic pen 4 from the display 3 . By drawing the handwritten data, for example, alphabets such as "S" and "T" are drawn on the display 3. FIG. Note that this "drawing of handwritten data" includes not only events for drawing an image, but also events for deleting an already drawn image and editing a drawn image.

「UI操作」は、ディスプレイ3上に図6に示されている後述のUI画像(A)が表示されている場合に、ユーザが電子ペン4又は手Hによって所定の位置を押下したイベントである。このUI操作により、例えば、電子ペン4により描画される線の色や幅等が設定される。 "UI operation" is an event in which the user presses a predetermined position with the electronic pen 4 or hand H when a UI image (A) shown in FIG. 6, which will be described later, is displayed on the display 3. . By this UI operation, for example, the color, width, etc. of a line drawn with the electronic pen 4 are set.

「ジェスチャ操作」は、ディスプレイ3上に図6に示されている後述の手書きデータ画像(B)が表示されている場合に、ユーザが手Hでディスプレイ3上をタッチしたり移動させたりするイベントである。このジェスチャ操作により、例えば、ユーザがディスプレイ3に手Hをタッチさせた状態で手Hを移動させることで、画像の拡大(若しくは縮小)、表示領域の変更、又は、ページ切り換え等を行うことができる。 "Gesture operation" is an event in which the user touches or moves the hand H on the display 3 when a handwritten data image (B) shown in FIG. 6 is displayed on the display 3. is. With this gesture operation, for example, by moving the hand H while the user touches the display 3, the image can be enlarged (or reduced), the display area can be changed, or the page can be switched. can.

操作処理部26は、イベント振分部25によってUI操作と判断されたものから、イベントが発生されたUIの要素にしたがって、各種操作を実行する。このUIの要素としては、例えば、ボタン、リスト、チェックボックス、テキストボックスが挙げられる。ジェスチャ処理部27は、イベント振分部25によってジェスチャ操作と判断されたものに対応した操作を実行する。 The operation processing unit 26 executes various operations according to the UI element for which the event is generated, based on the UI operation determined by the event allocation unit 25 . Elements of this UI include, for example, buttons, lists, check boxes, and text boxes. The gesture processing unit 27 executes an operation corresponding to the gesture operation determined by the event distribution unit 25 .

映像重畳部28は、後述の表示処理部36で重畳された画像を映像として表示部29に対して表示する。表示部29はディスプレイ3により実現される表示機能を示す。また、映像重畳部28は、外部装置6等からの映像に対して、テレビ会議端末7等から送られて来た映像をピクチャーインピクチャーする。更に、映像重畳部28は、ピクチャーインピクチャーされて表示部29の一部に表示された映像を、表示部29の全体に表示させるための切り替えを行う。 The video superimposing unit 28 displays the image superimposed by the display processing unit 36, which will be described later, on the display unit 29 as a video. A display unit 29 indicates a display function realized by the display 3 . Further, the video superimposing unit 28 picture-in-pictures the video sent from the teleconference terminal 7 or the like to the video from the external device 6 or the like. Further, the image superimposing unit 28 performs switching to display the image that has been picture-in-picture and displayed on a part of the display unit 29 on the entire display unit 29 .

画像処理部30は、図6に示されているような各画像レイヤの重畳処理等を行う。この画像処理部30は、画像取得部31、手書きデータ処理部32、メニュー画面生成部33、画像生成部34、レイアウト管理部35、表示処理部36、ページ処理部37、ファイル処理部40、ページデータ記憶部300、及び遠隔ライセンス管理テーブル310を有している。 The image processing unit 30 performs superimposition processing and the like for each image layer as shown in FIG. The image processing unit 30 includes an image acquisition unit 31, a handwritten data processing unit 32, a menu screen generation unit 33, an image generation unit 34, a layout management unit 35, a display processing unit 36, a page processing unit 37, a file processing unit 40, a page It has a data storage unit 300 and a remote license management table 310 .

このうち、画像取得部31は、映像取得部21で取得された映像から、各フレームを画像として取得する。画像取得部31は、この画像のデータを、ページ処理部37に出力する。この画像は、図6に示されている外部装置6等からの入力画像(C)に相当する。本実施形態では入力画像(C)を映像と称している。 Of these, the image acquisition section 31 acquires each frame as an image from the video acquired by the video acquisition section 21 . The image acquisition section 31 outputs this image data to the page processing section 37 . This image corresponds to the input image (C) from the external device 6 or the like shown in FIG. In this embodiment, the input image (C) is called video.

手書きデータ処理部32は、イベント振分部25によって割り振られた手書きデータ描画に係るイベントに基づいて、画像(手書きデータ)を描画したり、描画された画像を削除したり、描画された画像を編集する。この手書きデータ描画による画像は、図6に示されている手書きデータ画像(B)に相当する。また、この手書きデータ描画に基づいた画像の描画、削除、編集の各結果は、後述の操作データとして、データ管理部80に記憶される。 The handwritten data processing unit 32 draws an image (handwritten data), deletes the drawn image, or deletes the drawn image, based on the handwritten data drawing event assigned by the event allocation unit 25. To edit. This handwritten data drawing image corresponds to the handwritten data image (B) shown in FIG. Further, each result of image drawing, deletion, and editing based on this handwritten data drawing is stored in the data management unit 80 as operation data, which will be described later.

メニュー画面生成部33は、表示装置2に予め設定されているUI画像(A)(ユーザインターフェース画像)を生成する。このUI画像(A)は、図6に示されているUI画像(A)に相当する。 The menu screen generation unit 33 generates a UI image (A) (user interface image) preset in the display device 2 . This UI image (A) corresponds to the UI image (A) shown in FIG.

画像生成部34は、ページ処理部37がページデータ記憶部300(表1~表4参照)から読み出したページデータのうちのメディアデータを、ページ処理部37から受信する。画像生成部34は、この受信したメディアデータを表示処理部36に出力する。また、このメディアデータによる画像は、図6に示されている背景画像(D)に相当する。背景画像(D)のパターンは、無地、グリッド表示等である。 The image generation unit 34 receives from the page processing unit 37 the media data included in the page data read by the page processing unit 37 from the page data storage unit 300 (see Tables 1 to 4). The image generator 34 outputs the received media data to the display processor 36 . An image based on this media data corresponds to the background image (D) shown in FIG. The pattern of the background image (D) is plain, grid display, or the like.

レイアウト管理部35は、表示処理部36に対して、画像取得部31、手書きデータ処理部32、及びメニュー画面生成部33(又は画像生成部34)から出力された各画像のレイアウトを示すレイアウト情報を管理している。これにより、レイアウト管理部35は、表示処理部36に対して、入力画像(C)及び手書きデータ画像(B)を、UI画像(A)及び背景画像(D)中のどの位置に表示させるか又は非表示にさせるかを指示することができる。 The layout management unit 35 provides the display processing unit 36 with layout information indicating the layout of each image output from the image acquisition unit 31, the handwritten data processing unit 32, and the menu screen generation unit 33 (or the image generation unit 34). is managing As a result, the layout management unit 35 instructs the display processing unit 36 to display the input image (C) and the handwritten data image (B) at positions in the UI image (A) and the background image (D). Or you can instruct whether to hide it.

表示処理部36は、レイアウト管理部35から出力されたレイアウト情報に基づき、画像取得部31、手書きデータ処理部32、メニュー画面生成部33、及び画像生成部34から出力された各画像のレイアウトを行う。 Based on the layout information output from the layout management unit 35, the display processing unit 36 determines the layout of each image output from the image acquisition unit 31, the handwritten data processing unit 32, the menu screen generation unit 33, and the image generation unit 34. conduct.

ページ処理部37は、手書きデータ画像(B)のデータと入力画像(C)のデータを、1つのページデータにまとめてページデータ記憶部300に記憶する。手書きデータ画像(B)のデータは、手書き配列データ(各手書きデータ)としてページデータの一部を成す。入力画像(C)のデータは、メディアデータとしてページデータの一部を成す。そして、このメディアデータは、ページデータ記憶部300から読み出されると、背景画像(D)のデータとして取り扱われる。 The page processing unit 37 combines the data of the handwritten data image (B) and the data of the input image (C) into one page data and stores it in the page data storage unit 300 . The data of the handwritten data image (B) forms part of the page data as handwritten arrangement data (each handwritten data). The data of the input image (C) form part of the page data as media data. Then, when this media data is read from the page data storage unit 300, it is handled as data of the background image (D).

また、ページ処理部37は、一旦記憶されたページデータのうちのメディアデータを、画像生成部34を介して表示処理部36に送信することで、映像重畳部28が背景画像(D)をディスプレイ3に再表示させることができる。また、ページ処理部37は、ページデータのうちの手書き配列データ(各手書きデータ)を、手書きデータ処理部32に戻すことで、手書きデータの再編集ができる状態にすることができる。更に、ページ処理部37は、ページデータを削除したり複製したりすることもできる。 Further, the page processing unit 37 transmits the media data of the temporarily stored page data to the display processing unit 36 via the image generation unit 34, so that the image superimposition unit 28 displays the background image (D). 3 can be redisplayed. In addition, the page processing unit 37 returns the handwritten arrangement data (each handwritten data) of the page data to the handwritten data processing unit 32, so that the handwritten data can be re-edited. Furthermore, the page processing unit 37 can also delete or duplicate page data.

即ち、ページ処理部37がページデータ記憶部300にページデータを記憶する時点でディスプレイ3上に表示されている入力画像(C)のデータは、一旦、ページデータ記憶部300に記憶され、その後にページデータ記憶部300から読み出される際には、背景画像(D)を示すメディアデータとして読みされる。そして、ページ処理部37は、ページデータ記憶部300から読み出したページデータのうち、手書きデータ画像(B)を示す手書き配列データを、手書きデータ処理部32に出力する。また、ページ処理部37は、ページデータ記憶部300から読み出したページデータのうち、背景画像(D)を示すメディアデータを、画像生成部34に出力する。 That is, the data of the input image (C) displayed on the display 3 when the page processing unit 37 stores the page data in the page data storage unit 300 is temporarily stored in the page data storage unit 300, and then When read from the page data storage unit 300, it is read as media data representing the background image (D). Then, page processing unit 37 outputs handwritten arrangement data representing the handwritten data image (B) among the page data read from page data storage unit 300 to handwritten data processing unit 32 . The page processing unit 37 also outputs media data indicating the background image (D) among the page data read from the page data storage unit 300 to the image generation unit 34 .

表示処理部36は、画像取得部31からの入力画像(C)、手書きデータ処理部32からの手書きデータ画像(B)、メニュー画面生成部33からのUI画像(A)、及び、画像生成部34からの背景画像(D)を、レイアウト管理部35によって指定されたレイアウトにしたがって重畳する。これにより、図6に示されているように、各画像が重なってもユーザが見える順に、UI画像(A)、手書きデータ画像(B)、入力画像(C)、及び背景画像(D)の各レイヤの構成となっている。 The display processing unit 36 receives an input image (C) from the image acquisition unit 31, a handwritten data image (B) from the handwritten data processing unit 32, a UI image (A) from the menu screen generation unit 33, and an image generation unit. A background image (D) from 34 is superimposed according to the layout specified by the layout management section 35 . As a result, as shown in FIG. 6, the UI image (A), the handwritten data image (B), the input image (C), and the background image (D) are displayed in the order that the user can see even if the images overlap. It consists of each layer.

また、表示処理部36は、図6に示されている入力画像(C)と背景画像(D)を切り替えて、UI画像(A)及び手書き画像(B)に対して排他的に重畳することも可能である。例えば、当初、UI画像(A)、手書き画像(B)及び入力画像(C)が表示されている状態で、表示装置2と外部装置6等との間のケーブル10が抜かれた場合には、レイアウト管理部35の指定によって、入力画像(C)を重畳対象から外し、背景画像(D)を表示させることができる。この場合に、また、表示処理部36は、表示の拡大、表示の縮小、表示領域の移動処理も行う。 Further, the display processing unit 36 switches between the input image (C) and the background image (D) shown in FIG. 6, and superimposes them exclusively on the UI image (A) and the handwritten image (B). is also possible. For example, when the UI image (A), the handwritten image (B), and the input image (C) are initially displayed and the cable 10 between the display device 2 and the external device 6 or the like is unplugged, By designation of the layout management unit 35, the input image (C) can be excluded from the superimposition target and the background image (D) can be displayed. In this case, the display processing unit 36 also performs display enlargement, display reduction, and display area movement processing.

ファイル処理部40は、ファイルの入力と出力に関する処理を行う。ファイル処理部40は、USBメモリ5等の記憶装置から画像データを読み込み、各ページをページデータとしてページデータ記憶部300に記憶する。また、ファイル処理部40は、ページデータ記憶部300に記憶されているページデータを、PDF形式のファイルに変換して、USBメモリ5等の記憶装置に記憶させる。この他、PDFファイルを電子メールに添付して送信する。 The file processing unit 40 performs processing related to file input and output. The file processing unit 40 reads image data from a storage device such as the USB memory 5 and stores each page in the page data storage unit 300 as page data. Further, the file processing unit 40 converts the page data stored in the page data storage unit 300 into a PDF format file, and stores the file in a storage device such as the USB memory 5 or the like. In addition, a PDF file is attached to an e-mail and sent.

〔サーバ部の機能構成〕
サーバ部90は、各表示装置2に設けられており、いずれの表示装置2であっても、サーバ部としての役割を果たすことができる。そのため、サーバ部90は、通信制御部70、及びデータ管理部80を有している。
[Functional configuration of the server part]
The server section 90 is provided in each display device 2, and any display device 2 can serve as a server section. Therefore, the server section 90 has a communication control section 70 and a data management section 80 .

通信制御部70は、同じ表示装置2内のクライアント部20における通信制御部70、及び通信ネットワークNを介して他の表示装置2内のクライアント部20における通信制御部70との通信を制御する。データ管理部80は、操作データや画像データ等を管理する。 The communication control unit 70 controls communication with the communication control unit 70 in the client unit 20 in the same display device 2 and communication with the communication control unit 70 in the client unit 20 in another display device 2 via the communication network N. The data management unit 80 manages operation data, image data, and the like.

Figure 0007331578000001
ページデータ記憶部300は、表1に示されているようなページデータを記憶する。表1は、ページデータを概念的に示す。ページデータは、ディスプレイ3に表示される1ページ分のデータ(手書き配列データ(各手書きデータ)及びメディアデータ)である。なお、ページデータに含まれるパラメータの種類が多いため、ここでは、表1~表4に分けて、ページデータの内容を説明する。
Figure 0007331578000001
The page data storage unit 300 stores page data as shown in Table 1. Table 1 conceptually shows page data. The page data is data for one page displayed on the display 3 (handwritten arrangement data (each handwritten data) and media data). Since there are many types of parameters included in the page data, the contents of the page data will be described separately in Tables 1 to 4 here.

ページデータは、表1に示されているように、任意の1ページを識別するためのページデータID、このページの表示を開始した時刻を示す開始時刻、手書きやジェスチャ等によるページの内容の書き換えが行われなくなった時刻を示す終了時刻、電子ペン4やユーザの手Hによる手書きによって生じた手書き配列データを識別するための手書き配列データID、及びメディアデータを識別するためのメディアデータIDが関連付けて記憶されている。手書き配列データは、図6に示されている手書きデータ画像(B)がディスプレイ3上に表示されるためのデータである。メディアデータは、背景画像(D)がディスプレイ3上に表示されるためのデータである。 The page data, as shown in Table 1, includes a page data ID for identifying an arbitrary page, a start time indicating the time when the display of this page was started, and rewriting of the content of the page by handwriting, gestures, or the like. end time indicating the time at which the is no longer performed, a handwritten array data ID for identifying handwritten array data generated by handwriting with the electronic pen 4 or the user's hand H, and a media data ID for identifying media data. are stored. The handwritten arrangement data is data for displaying the handwritten data image (B) shown in FIG. Media data is data for displaying the background image (D) on the display 3 .

このようなページデータにより、例えば、ユーザが電子ペン4によってアルファベット「S」を描く場合は一筆書きとなるため、手書きデータIDが1つで一文字のアルファベット[S]が示される。ところが、ユーザが電子ペン4によってアルファベット「T」を描く場合、二筆書きとなるため、手書きデータIDが2つで一文字のアルファベット「T」が示されることになる。 With such page data, for example, when the user draws the alphabet "S" with the electronic pen 4, it is written in one stroke, so one handwritten data ID indicates one alphabet [S]. However, when the user draws the alphabet "T" with the electronic pen 4, it is written in two strokes, so two handwritten data IDs indicate one alphabet "T".

Figure 0007331578000002
また、手書き配列データは、表2に示されているように詳細な情報を示している。表2は、手書き配列データを概念的に示す。表2に示されているように、1つの手書き配列データは、複数の手書きデータによって表される。そして、1つの手書きデータは、この手書きデータを識別するための手書きデータID、1つの手書きデータの書き始めの時刻を示す開始時刻、1つの手書きデータの書き終わりの時刻を示す終了時刻、手書きデータの色、手書きデータの幅、及び、手書きデータの通過点の配列を識別するための座標配列データIDを示している。
Figure 0007331578000002
Also, the handwritten sequence data shows detailed information as shown in Table 2. Table 2 conceptually shows the handwritten sequence data. As shown in Table 2, one piece of handwritten array data is represented by a plurality of pieces of handwritten data. One piece of handwritten data includes a handwritten data ID for identifying this handwritten data, a start time indicating the time at which writing of the piece of handwritten data began, an end time indicating the time at which writing of the piece of handwritten data ended, and handwritten data. , the width of the handwritten data, and the coordinate array data ID for identifying the array of passing points of the handwritten data.

Figure 0007331578000003
更に、この座標配列データは、表3に示されているように詳細な情報を示している。表3は、座標配列データを概念的に示す。表3に示されているように、座標配列データは、ディスプレイ3上の1点(X座標値、Y座標値)、この1点を通過したときの手書きの開始時刻からの差分の時刻(ms)、及び、この1点における電子ペン4の筆圧の各情報を示している。即ち、表3に示されている1点の集まりが、表2に示されている1つの座標配列データで示されている。例えば、ユーザが電子ペン4によってアルファベット「S」を描く場合、一筆書きとなるが、「S」を描き終えるまでに、複数の通過点を通過するため、座標配列データは、これら複数の通過点の情報を示している。
Figure 0007331578000003
Furthermore, this coordinate array data shows detailed information as shown in Table 3. Table 3 conceptually shows the coordinate array data. As shown in Table 3, the coordinate array data consists of one point (X coordinate value, Y coordinate value) on the display 3 and the difference time (ms ), and the writing pressure of the electronic pen 4 at this one point. That is, a set of points shown in Table 3 is represented by one coordinate array data shown in Table 2. For example, when the user draws the alphabet "S" with the electronic pen 4, it is written in one stroke. information.

Figure 0007331578000004
また、表1に示されているページデータのうちのメディアデータは、表4に示されているように詳細な情報を示している。表4は、メディアデータを概念的に示す。表4に示されているように、メディアデータは、表1に示されているページデータにおけるメディアデータID、メディアデータのデータ種類、ページ処理部37からページデータ記憶部300にページデータが記憶された記録時刻、ページデータによってディスプレイ3上に表示される画像の位置(X座標値、Y座標値)及び画像のサイズ(幅、高さ)、並びにメディアデータの内容を示すデータが関連付けられて示されている。このうち、ページデータによってディスプレイ3上に表示される画像の位置は、ディスプレイ3の左上端の座標を(X座標値,Y座標値)=(0,0)とした場合に、ページデータによって表示される画像の左上端の位置を示している。
Figure 0007331578000004
Also, the media data of the page data shown in Table 1 indicates detailed information as shown in Table 4. Table 4 conceptually shows media data. As shown in Table 4, the media data includes the media data ID in the page data shown in Table 1, the data type of the media data, and the page data stored in the page data storage unit 300 from the page processing unit 37. The recorded time, the position (X coordinate value, Y coordinate value) and size (width, height) of the image displayed on the display 3 by the page data, and the data indicating the contents of the media data are displayed in association with each other. It is Among them, the position of the image displayed on the display 3 by the page data is displayed by the page data when the coordinates of the upper left corner of the display 3 are (X coordinate value, Y coordinate value)=(0, 0). It indicates the position of the upper left corner of the image to be displayed.

<第二アプリの第二画像の保存に関する表示装置の機能>
続いて、図7、図8を参照して、第二アプリの画像の保存に関する表示装置2の機能について説明する。
<Functions of the display device related to saving the second image of the second application>
Next, with reference to FIGS. 7 and 8, functions of the display device 2 regarding saving of images of the second application will be described.

図7は、ソフトウェア構成の一例を示す図である。表示装置2には、1つの第一アプリ102と1つ以上の第二アプリ103がインストールされている。図7に示されているように、第一アプリ102と第二アプリ103はOS101上で動作する。OS101は、表示装置2のハードウェア又はソフトウェアを第一アプリ102又は第二アプリ103が利用するためのAPI(アプリケーションインタフェース)を提供する、表示装置2を管理する基本ソフトウェアである。OS101は、例えばWindows(登録商標)、UNIX(登録商標)、LINUX(登録商標)、MAC OS(登録商標)、Andoroid(登録商標)、iOS(登録商標)などでよい。 FIG. 7 is a diagram showing an example of a software configuration. One first application 102 and one or more second applications 103 are installed in the display device 2 . As shown in FIG. 7, first application 102 and second application 103 operate on OS 101 . The OS 101 is basic software that manages the display device 2 and provides an API (application interface) for the first application 102 or the second application 103 to use the hardware or software of the display device 2 . The OS 101 may be, for example, Windows (registered trademark), UNIX (registered trademark), LINUX (registered trademark), MAC OS (registered trademark), Android (registered trademark), iOS (registered trademark), or the like.

第一アプリ102は、上記のように、表示装置2の主要な機能を提供するアプリであり、手書きデータの表示及び保存などを行う。 The first application 102 is an application that provides the main functions of the display device 2 as described above, and performs display and storage of handwritten data.

第二アプリ103は、第一アプリ102と共に使用される可能性があるアプリであればよい。本実施形態では、第二画像11が保存されるので、バックグラウンドでのみ動作するアプリでなく何らかのUI(第二画面8)を表示するアプリであることが想定される。例えば、テレビ電話用のアプリ、ファイルビューワアプリ、スケジュールビューワアプリ、又は、ブラウザアプリなどである。なお、第二アプリ103は少なくとも1つあればよい。 The second application 103 may be any application that may be used together with the first application 102 . In this embodiment, since the second image 11 is saved, it is assumed that the application is not an application that operates only in the background, but an application that displays some kind of UI (second screen 8). For example, a videophone application, a file viewer application, a schedule viewer application, or a browser application. At least one second application 103 is sufficient.

また、第二アプリ103は第一アプリ102と連携する連携アプリであると更によい。連携アプリとは、第一アプリ102を使用する時にはユーザが使用する頻度が高いアプリをいい、ユーザにより予め登録されている。第一アプリ102は起動すると連携アプリも起動させることができる。 Moreover, it is more preferable that the second application 103 is a cooperative application that cooperates with the first application 102 . A cooperative application is an application that is frequently used by the user when using the first application 102, and is registered in advance by the user. When the first application 102 is activated, the cooperative application can also be activated.

なお、ソフトウェア(正確にはコンピュータソフトウェアという)とは、コンピュータの動作に関するプログラム、その他コンピュータによる処理の用に供する情報であってプログラムに準ずるものをいう。アプリケーションソフトとは、ソフトウェアの分類のうち、特定の作業を行うために使用されるソフトウェアの総称である。一方、オペレーティングシステム(OS)とは、コンピュータを制御し、アプリケーションソフトなどがコンピュータ資源を利用可能にするためのソフトウェアのことである。「OS」と略されることが多い。 Software (more precisely, computer software) refers to programs related to computer operations and other information used for processing by a computer, which conforms to programs. Application software is a general term for software used to perform a specific task among software classifications. On the other hand, an operating system (OS) is software that controls a computer and enables application software and the like to use computer resources. It is often abbreviated as "OS".

オペレーティングシステムは、入出力の制御、メモリやハードディスクなどのハードウェアの管理、プロセスの管理といった、コンピュータの基本的な管理・制御を行っている。アプリケーションソフトウェアは、オペレーティングシステムが提供する機能を利用して動作する。 The operating system performs basic management and control of the computer, such as control of input/output, management of hardware such as memory and hard disk, and management of processes. Application software operates using functions provided by the operating system.

プログラムとは、コンピュータに対する指令であって、一の結果を得ることができるように組み合わせたものをいう。また、プログラムに準ずるものとは、コンピュータに対する直接の指令ではないためプログラムとは呼べないが、コンピュータの処理を規定するという点でプログラムに類似する性質を有するものをいう。例えば、データ構造(データ要素間の相互関係で表される、データの有する論理的構造)がプログラムに準ずるものに該当する。 A program is a set of instructions for a computer that are combined to produce a result. Also, what conforms to a program refers to something that cannot be called a program because it is not a direct command to a computer, but has properties similar to a program in that it defines the processing of the computer. For example, a data structure (a logical structure of data represented by interrelationships between data elements) corresponds to a program.

上記各プログラムは、インストール可能な形式又は実行可能な形式のファイルで、コンピュータで読み取り可能な記録媒体に記録して流通させるようにしてもよい。記録媒体の例として、CD-R(Compact Disc Recordable)、DVD(Digital Versatile Disk)、ブルーレイディスク、SDカード等が挙げられる。また、記録媒体は、プログラム製品(Program Product)として、国内又は国外へ提供されることができる。 Each of the above programs may be recorded in a computer-readable recording medium in an installable or executable format and distributed. Examples of recording media include CD-Rs (Compact Disc Recordable), DVDs (Digital Versatile Disks), Blu-ray discs, SD cards, and the like. Also, the recording medium can be provided domestically or internationally as a program product.

図8は、第二画像11の保存に関する表示装置2の機能をブロックに分けて示す機能ブロック図の一例である。図8の表示装置2は、図5に示した機能から第二画像11の保存に関する一部の機能を抽出して示す。 FIG. 8 is an example of a functional block diagram showing functions of the display device 2 related to saving the second image 11 divided into blocks. The display device 2 in FIG. 8 extracts and shows some functions related to saving the second image 11 from the functions shown in FIG.

操作処理部26はユーザがUI画像(A)に対し行った第一画面9の保存操作を受け付ける。本実施形態では、第一画面9の保存操作には第二画面8の保存操作をも含まれるものとする。第一画面9のみの保存操作が可能でもよいし、第二画面8のみの保存操作が可能でもよい。操作内容は画像取得部31、画像生成部34及び手書きデータ処理部32に通知される。また、操作処理部26はディスプレイ3に表示された第二画像11に対する編集も受け付ける。 The operation processing unit 26 receives a save operation of the first screen 9 performed by the user on the UI image (A). In this embodiment, the save operation on the first screen 9 is assumed to include the save operation on the second screen 8 as well. Only the first screen 9 may be saved, or only the second screen 8 may be saved. The details of the operation are notified to the image acquisition unit 31 , the image generation unit 34 and the handwritten data processing unit 32 . The operation processing unit 26 also accepts editing of the second image 11 displayed on the display 3 .

ディスプレイ3には入力画像(C)又は背景画像(D)が表示された状態で、手書きデータ画像(B)とUI画像(A)が表示されている。保存の対象となるのは、手書きデータ画像(B)、入力画像(C)及び背景画像(D)である。ただし、入力画像(C)と背景画像(D)は同時に表示されないので、取得される画像は、
・入力画像(C)のみ
・背景画像(D)のみ
・手書きデータ画像(B)と入力画像(C)
・手書きデータ画像(B)と背景画像(D)
である。また、背景画像(D)は表示装置2の機能としては取得できなくてもよい。
A handwritten data image (B) and a UI image (A) are displayed on the display 3 while an input image (C) or a background image (D) is displayed. The objects to be saved are the handwritten data image (B), the input image (C) and the background image (D). However, since the input image (C) and the background image (D) are not displayed at the same time, the acquired image is
・Input image (C) only ・Background image (D) only ・Handwritten data image (B) and input image (C)
・Handwritten data image (B) and background image (D)
is. Also, the background image (D) may not be acquired as a function of the display device 2 .

これらはいずれも第一アプリ102が生成する画像であり、第一画像12に相当する。本実施形態では、更に、第二アプリ103が生成する第二画面8が第一画面9に重ねて表示されている場合が想定されている。 All of these are images generated by the first application 102 and correspond to the first image 12 . In the present embodiment, it is further assumed that the second screen 8 generated by the second application 103 is superimposed on the first screen 9 and displayed.

全体画像取得部51は第一画面9に表示されている第一画像12と、第二画面8に表示されている第二画像11を取得する。上記のように、第一画面9には、手書きデータ画像(B)と、入力画像(C)又は背景画像(D)が含まれる。従来、手書きデータ画像(B)と入力画像(C)又は背景画像(D)はPDFデータなどの画像データに保存されていたが、本実施形態では入力画像(C)又は背景画像(D)はPDFなどの画像データとして保存されるが、手書きデータは座標データとして保存されたままでよい。 The whole image acquisition unit 51 acquires the first image 12 displayed on the first screen 9 and the second image 11 displayed on the second screen 8 . As described above, the first screen 9 includes the handwritten data image (B) and the input image (C) or background image (D). Conventionally, the handwritten data image (B) and the input image (C) or the background image (D) were saved in image data such as PDF data, but in this embodiment the input image (C) or the background image (D) is Although it is saved as image data such as PDF, handwritten data may be saved as coordinate data.

画像取得部31は、入力画像取得部52と第二画像取得部53を有している。入力画像取得部52は、操作処理部26が保存操作を受け付けた時にディスプレイ3(第一画面9)に表示していた入力画像(C)を保存する。ただし、入力画像(C)が入力されていない場合は保存しない。 The image acquisition section 31 has an input image acquisition section 52 and a second image acquisition section 53 . The input image obtaining unit 52 saves the input image (C) displayed on the display 3 (first screen 9) when the operation processing unit 26 accepts the saving operation. However, if the input image (C) is not input, it is not saved.

第二画像取得部53は、現在、ディスプレイ3に表示されている第二アプリ103が生成する第二画面8の第二画像11を保存する。第二アプリ103は予め登録アプリ記憶部54に登録されている。第二アプリ103はウィンドウと呼ばれる矩形領域に第二画面8を表示するので、この矩形領域内の画像が第二画像11である。第二画像11の保存の詳細は後述する。 The second image acquisition unit 53 saves the second image 11 of the second screen 8 generated by the second application 103 currently displayed on the display 3 . The second application 103 is registered in the registered application storage unit 54 in advance. Since the second application 103 displays the second screen 8 in a rectangular area called a window, the image within this rectangular area is the second image 11 . The details of saving the second image 11 will be described later.

Figure 0007331578000005
表5は、登録アプリ記憶部54に記憶されている第二アプリ103を模式的に示す。登録アプリ記憶部54にはアプリIDに対応づけて第二アプリ103のアプリ名が登録されている。このような第二アプリ103のアプリ名は、第二画像取得部53が第二画像11を保存する際に使用される。また、登録アプリ記憶部54への第二アプリ103の登録は予めユーザが行う。
Figure 0007331578000005
Table 5 schematically shows second applications 103 stored in registered application storage unit 54 . The application name of the second application 103 is registered in the registered application storage unit 54 in association with the application ID. Such an application name of the second application 103 is used when the second image acquisition unit 53 saves the second image 11 . Also, the user registers the second application 103 in the registered application storage unit 54 in advance.

図8に戻って、画像生成部34は背景画像取得部56を有している。背景画像取得部56は、操作処理部26が保存操作を受け付けた時にディスプレイ3(第一画面9)に表示していた背景画像(D)を保存する。ただし、入力画像(C)が入力されている場合は背景画像(D)を保存しない(ユーザの目に背景画像(D)が触れていないため)。 Returning to FIG. 8 , the image generation section 34 has a background image acquisition section 56 . The background image obtaining unit 56 saves the background image (D) displayed on the display 3 (first screen 9) when the operation processing unit 26 accepts the save operation. However, when the input image (C) is input, the background image (D) is not saved (because the background image (D) is not in contact with the user's eyes).

手書きデータ処理部32は、上記のように、手書きデータをリアルタイムにページデータ記憶部300に記録しているため、操作処理部26が保存操作を受け付けた時に別途、手書きデータを保存しなくてよい。手書きデータ処理部32は、操作処理部26が保存操作を受け付けた時、ページ処理部37を介して1ページ分の手書きデータを取得する。第二画像11と共に手書きデータ画像(B)を表示するためである。 Since the handwritten data processing unit 32 records the handwritten data in the page data storage unit 300 in real time as described above, the handwritten data need not be saved separately when the operation processing unit 26 receives the save operation. . The handwritten data processing unit 32 acquires one page of handwritten data via the page processing unit 37 when the operation processing unit 26 receives a save operation. This is for displaying the handwritten data image (B) together with the second image 11 .

ページ処理部37は、背景画像取得部56により取得された背景画像(D)又は入力画像取得部52により取得された入力画像、及び、第二画像取得部53により取得された第二画像11をページごとに対応づけて画像データ記憶部55に保存する。画像データ記憶部55に記憶されている画像データの一例を表6に示す。 The page processing unit 37 acquires the background image (D) acquired by the background image acquiring unit 56 or the input image acquired by the input image acquiring unit 52, and the second image 11 acquired by the second image acquiring unit 53. Each page is associated and stored in the image data storage unit 55 . Table 6 shows an example of the image data stored in the image data storage unit 55.

また、ページ処理部37は、画像データ記憶部55に記憶された入力画像(C)又は背景画像(D)を画像生成部34に送出し、手書きデータと第二画像11を手書きデータ処理部32に送出する。画像生成部34は入力画像(C)又は背景画像(D)を表示処理部36に送出し、手書きデータ処理部32は手書きデータを手書きデータ画像(B)に変換して第二画像11を配置して、表示処理部36に送出する。これにより、表示処理部36は、入力画像(C)又は背景画像(D)、第二画像11、及び、手書きデータ画像(B)を重ねて表示できる。 Further, the page processing unit 37 sends the input image (C) or the background image (D) stored in the image data storage unit 55 to the image generation unit 34, and transmits the handwritten data and the second image 11 to the handwritten data processing unit 32. send to The image generation unit 34 sends the input image (C) or the background image (D) to the display processing unit 36, and the handwritten data processing unit 32 converts the handwritten data into the handwritten data image (B) and arranges the second image 11. and sent to the display processing unit 36. Thereby, the display processing unit 36 can display the input image (C) or the background image (D), the second image 11, and the handwritten data image (B) in an overlapping manner.

Figure 0007331578000006
表6は、画像データ記憶部55に記憶されている画像データを模式的に示す。画像データ記憶部55は、ページデータID、背景画像(D)、入力画像(C)、及び、第二画像1~n、の各項目を有している。入力画像(C)と背景画像(D)はどちらかが記憶されていればよく、上記のメディアデータに相当する。表6では画像データそのものが画像データ記憶部55に保存されているが、メディアデータへのパスで代用してよい。
Figure 0007331578000006
Table 6 schematically shows the image data stored in the image data storage unit 55. The image data storage unit 55 has items of page data ID, background image (D), input image (C), and second images 1 to n. Either the input image (C) or the background image (D) may be stored, and corresponds to the above media data. Although the image data itself is stored in the image data storage unit 55 in Table 6, a path to the media data may be substituted.

第二画像1~nは、第二アプリ103がウィンドウ内に表示していた第二画面8の第二画像11である。第二アプリ103が起動していない場合は第二画像11も保存されない。 The second images 1 to n are the second images 11 of the second screen 8 displayed in the window by the second application 103 . The second image 11 is also not saved when the second application 103 is not running.

<保存された第二画像の表示について>
表示装置2は、図6に示した上記4つのレイヤ(UI画像(A)、手書きデータ画像(B)、入力画像(C)、背景画像(D))をディスプレイ3に表示するので、第二画像11はこのいずれかのレイヤに配置される。これにより、レイヤを増やす必要がなく、メモリを節約できる。本実施形態では、一例として、表示装置2は手書きデータ画像(B)に第二画像11を配置するものとして説明する。ただし、UI画像(A)、入力画像(C)、又は背景画像(D)に配置してもよい。
<About the display of the saved second image>
The display device 2 displays the four layers (UI image (A), handwritten data image (B), input image (C), background image (D)) shown in FIG. The image 11 is placed on one of these layers. This saves memory without the need for more layers. In this embodiment, as an example, the display device 2 arranges the second image 11 in the handwritten data image (B). However, it may be placed in the UI image (A), the input image (C), or the background image (D).

図9は、手書きデータ画像における第二画像11の配置を説明する図である。図9(a)は第二画像11が表示されない場合を示し、図9(b)は第二画像11が表示される場合を示す。 FIG. 9 is a diagram illustrating the arrangement of the second image 11 in the handwritten data image. 9A shows the case where the second image 11 is not displayed, and FIG. 9B shows the case where the second image 11 is displayed.

図9(a)に示すように、手書きデータ画像(B)には、例えば「AB」という文字が手書きされている。この場合、手書きデータ画像(B)(手書きレイヤ)には、「AB」という文字を構成する手書きデータ110が描画される。 As shown in FIG. 9A, for example, characters "AB" are handwritten in the handwritten data image (B). In this case, the handwritten data image (B) (handwritten layer) is drawn with the handwritten data 110 forming the characters "AB".

これに対し、図9(b)に示すように、第一画面9に重なって表示されていた第二画面8の第二画像11が保存された場合、手書きデータ処理部32は手書きデータ画像(B)(手書きレイヤ)に第二画像11A、11Bを配置する。 On the other hand, as shown in FIG. 9B, when the second image 11 of the second screen 8 that has been displayed overlapping the first screen 9 is saved, the handwritten data processing unit 32 processes the handwritten data image ( B) Place the second images 11A and 11B on the (handwritten layer).

このように、手書きデータ画像(B)には座標データが配置され、第二画像11が表示部品として配置される。ユーザは後から座標データを追加したり削除したりしても、手書きデータ画像(B)に反映できる。表示部品も手書きデータ画像(B)とは一体でないので、手書きデータ画像(B)とは別に編集可能である。したがって、第二画像11が配置された手書きデータ画像(B)に対し、ユーザが第二画像11を編集できる。 In this way, coordinate data is arranged in the handwritten data image (B), and the second image 11 is arranged as a display component. Even if the user adds or deletes coordinate data later, it can be reflected in the handwritten data image (B). Since the display component is also not integrated with the handwritten data image (B), it can be edited separately from the handwritten data image (B). Therefore, the user can edit the second image 11 for the handwritten data image (B) in which the second image 11 is arranged.

<第二画像の取り込み方法>
第二画像取得部53が第二画像11を取得するためには、第二画像11の位置やサイズなどの第二アプリ103に関する情報が必要になる。第二画像取得部53はOS101が提供する関数やコマンドを利用して第二アプリ103に関する情報を取得する。本実施形態では一例としてOS101がWindows(登録商標)の場合を説明する。
<How to capture the second image>
In order for the second image acquisition unit 53 to acquire the second image 11, information regarding the second application 103 such as the position and size of the second image 11 is required. The second image acquisition unit 53 acquires information about the second application 103 using functions and commands provided by the OS 101 . In this embodiment, as an example, the case where the OS 101 is Windows (registered trademark) will be described.

図10はOS101が提供する関数の一例である。図10(a)はGetProcessesByName()という関数の引数と戻り値を示す。GetProcessesByName()関数により、第二画像取得部53はアプリ名(図10(a)ではファイル名)からアプリの後述するプロセスIDを取得できる。第二画像取得部53は、登録アプリ記憶部54に記憶されているアプリを順番に読み出してGetProcessesByName()関数を実行し、各アプリのプロセスIDを取得する。 FIG. 10 shows an example of functions provided by the OS 101. FIG. FIG. 10(a) shows the argument and return value of the GetProcessesByName() function. With the GetProcessesByName( ) function, the second image acquisition unit 53 can acquire the process ID of the application, which will be described later, from the application name (file name in FIG. 10A). The second image acquisition unit 53 sequentially reads the applications stored in the registered application storage unit 54, executes the GetProcessesByName() function, and acquires the process ID of each application.

プロセスとは、コンピュータでプログラムなどを動作させる際、CPUが実行するひとまとまりの処理の単位である。 A process is a unit of processing executed by a CPU when a program or the like is run on a computer.

アプリが起動すると、OS101はこのアプリを識別するためのプロセスIDを発行する。プロセスIDは、OS101が現在実行されているプロセスを識別するための、プロセスごとに一意な識別子である。Windows(登録商標)やUNIX系OS(登録商標)などで利用され、符号なし整数値などが使用されることが多い。1つのプログラムが複数のプロセスを実行している場合には、それぞれのプロセスごとに値が割り当てられる。また、同じプログラムを複数起動した場合にも、それぞれを区別するために異なる値が割り当てられる。 When an application starts, the OS 101 issues a process ID for identifying this application. A process ID is a unique identifier for each process for identifying the process in which the OS 101 is currently running. It is used in Windows (registered trademark) and UNIX-based OS (registered trademark), and unsigned integer values are often used. If a program runs multiple processes, a value is assigned to each process. Also, when the same program is started multiple times, different values are assigned to distinguish between them.

Windows(登録商標)では、自身のプロセスIDは GetCurrentProcessId() という関数で取得し、他のプロセスのプロセスIDは GetProcessId() という関数で取得する。内部的にはプロセスIDを client ID と呼び、thread ID と同じ名前空間から割り当てられるので、両者は決してオーバーラップしない。いわゆるシステムアイドルプロセスのプロセスIDは0で、システムプロセスのプロセスIDは4が割り当てられる。 In Windows (registered trademark), the own process ID is obtained by the function GetCurrentProcessId(), and the process IDs of other processes are obtained by the function GetProcessId(). Internally, the process ID is called the client ID and is assigned from the same namespace as the thread ID, so the two never overlap. A process ID of 0 is assigned to the so-called system idle process, and a process ID of 4 is assigned to the system process.

Unix系OS(登録商標)では、自身のプロセスIDは getpid() システムコールで得られ、シェルでは $$ という変数で得られる。親プロセスのプロセスIDは getpid() システムコールで得られる。 In Unix-based OS (registered trademark), the own process ID is obtained by the getpid() system call, and in the shell it is obtained by the variable $$. The process ID of the parent process can be obtained with the getpid() system call.

図10(b)は、GetWindowThreadProcessId()という関数の引数と戻り値を示す。GetWindowThreadProcessId()関数はウィンドウハンドルからこのウィンドウを生成したプロセスIDを取得する関数である。ウィンドウハンドルとはWindows(登録商標)において、ウィンドウごとに付与される識別子である。アプリがOS101の機能を利用してウィンドウを制御するにはこのウィンドウハンドルを指定する。 FIG. 10(b) shows the argument and return value of the GetWindowThreadProcessId() function. The GetWindowThreadProcessId( ) function is a function that obtains the process ID that generated this window from the window handle. A window handle is an identifier assigned to each window in Windows (registered trademark). This window handle is specified when an application uses the functions of the OS 101 to control the window.

第二画像取得部53がGetWindowThreadProcessId()関数を実行する段階ではウィンドウハンドルは不明である。このため、第二画像取得部53は表示装置2が実行する全てのアプリのウィンドウハンドルを取得する。まず、GetTopWindow()関数によって、最もトップレベル(デスクトップ)から数えて一番上の子ウィンドウハンドルを取得する。このウィンドウからGetNextWindow()関数で、次のウィンドウハンドルを辿っていく。これにより全てのウィンドウハンドルを取得できる。 The window handle is unknown when the second image acquisition unit 53 executes the GetWindowThreadProcessId( ) function. Therefore, the second image acquisition unit 53 acquires window handles of all applications executed by the display device 2 . First, the GetTopWindow() function obtains the topmost child window handle counting from the top level (desktop). From this window, use the GetNextWindow() function to trace the next window handle. This will get all the window handles.

このようにして取得したウィンドウハンドルを指定してGetWindowThreadProcessId()関数を実行すると、第二画像取得部53はウィンドウ(ディスプレイ3に表示されているウィンドウ)を生成したアプリのプロセスIDを取得できる。第二画像取得部53は、GetWindowThreadProcessId()関数で取得したプロセスIDが、GetProcessesByName()関数で取得したプロセスIDと一致する場合、第二アプリ103のウィンドウハンドルを特定できたと判断する(GetWindowThreadProcessId()関数で指定したウィンドウハンドルが第二アプリ103のウィンドウハンドルであったことが分かる)。 When the GetWindowThreadProcessId() function is executed specifying the window handle obtained in this way, the second image obtaining unit 53 can obtain the process ID of the application that generated the window (the window displayed on the display 3). When the process ID acquired by the GetWindowThreadProcessId() function matches the process ID acquired by the GetProcessesByName() function, the second image acquisition unit 53 determines that the window handle of the second application 103 has been specified (GetWindowThreadProcessId() It turns out that the window handle specified by the function was the window handle of the second application 103).

図10(c)はGetWindowInfo()という関数の引数と戻り値を示す。GetWindowInfo()関数はウィンドウハンドルからウィンドウに関する情報を取得する関数である。GetWindowInfo()関数の実行でWINDOWINFOという戻り値が得られる。WINDOWINFOのrcClient メンバにクライアントの矩形領域(矩形領域の対角頂点の座標)が取得される。クライアントとはウィンドウの枠を除いた領域(第二画像のみの部分)である。 FIG. 10(c) shows the argument and return value of the GetWindowInfo() function. The GetWindowInfo() function is a function that gets information about a window from a window handle. Execution of the GetWindowInfo() function gives a return value of WINDOWINFO. The client's rectangular area (the coordinates of the diagonal vertices of the rectangular area) is obtained in the rcClient member of WINDOWINFO. The client is the area excluding the frame of the window (part containing only the second image).

以上のようにして、ウィンドウ内の第二画像11の表示位置と表示サイズを特定できるので、第二画像取得部53はディスプレイ3に表示されるデータを保持するビデオメモリにおいて、第二画像11の位置とサイズを指定して、各アプリが生成する第二画像11をビデオメモリから取得できる。 As described above, since the display position and display size of the second image 11 within the window can be identified, the second image acquisition unit 53 stores the second image 11 in the video memory holding the data to be displayed on the display 3. By specifying the position and size, the second image 11 generated by each application can be acquired from the video memory.

Figure 0007331578000007
表7は、第二画像取得部53が取得するアプリに関する情報を模式的に示す。アプリに関する情報は、プロセスID、アプリ名、ウィンドウハンドル、表示位置、及び、表示サイズを有している。プロセスIDはGetProcessesByName()関数により取得され、アプリ名は登録アプリ記憶部54に記憶されているアプリのファイル名であり、ウィンドウハンドルはGetWindowThreadProcessId()関数により特定され、表示位置と表示サイズはGetWindowInfo()関数により取得されている。なお、表示位置と表示サイズは矩形領域の対角頂点の座標でもよい。
Figure 0007331578000007
Table 7 schematically shows information about apps acquired by the second image acquisition unit 53 . Information about the application has a process ID, application name, window handle, display position, and display size. The process ID is obtained by the GetProcessesByName() function, the application name is the file name of the application stored in the registered application storage unit 54, the window handle is specified by the GetWindowThreadProcessId() function, and the display position and display size are obtained by the GetWindowInfo() function. ) function. Note that the display position and display size may be the coordinates of the diagonal vertices of the rectangular area.

<登録アプリ記憶部に登録されるアプリの登録方法>
図11は、アプリ登録画面130の一例を示す。アプリ登録画面130は、ユーザが登録アプリ記憶部54に、第一アプリ102と連携する第二アプリ103を登録するための画面である。
<Method of registering an application to be registered in the registered application memory>
FIG. 11 shows an example of the application registration screen 130. As shown in FIG. The application registration screen 130 is a screen for the user to register the second application 103 that cooperates with the first application 102 in the registered application storage unit 54 .

アプリ登録画面130は、表示装置2が表示してもよいし、表示装置2とネットワークを介して通信するPCなどの端末装置が表示してもよい。端末装置ではWebブラウザが動作しており、表示装置2がサーバとしてアプリ登録画面130の画面情報を端末装置に送信する。 The application registration screen 130 may be displayed by the display device 2 or may be displayed by a terminal device such as a PC that communicates with the display device 2 via a network. A web browser is running on the terminal device, and the display device 2 serves as a server and transmits screen information of the application registration screen 130 to the terminal device.

アプリ登録画面130は、「実行ファイル一覧を表示」ボタン131、一覧表示欄132、及び、登録ボタン133を有している。ユーザが「実行ファイル一覧を表示」ボタン131を押下すると、表示装置2が表示装置2のフォルダから実行ファイル(拡張子がexeのファイル)を検索して、一覧表示欄132に表示する。この場合、連携アプリがインストールされるフォルダが決まっているとよい。表示装置2は決まったフォルダのみを検索することで、連携アプリのみを検索できる。ユーザは一覧表示欄132でアプリのファイル名を選択し、登録ボタン133を押下する。これにより、登録アプリ記憶部54にアプリが登録される。 The application registration screen 130 has a “display execution file list” button 131 , a list display field 132 , and a registration button 133 . When the user presses the “display execution file list” button 131 , the display device 2 searches the folder of the display device 2 for execution files (files with extension exe) and displays them in the list display field 132 . In this case, it is preferable that the folder in which the cooperative application is installed is determined. The display device 2 can search only the cooperative application by searching only the predetermined folder. The user selects the file name of the application in list display field 132 and presses registration button 133 . Thereby, the application is registered in the registered application storage unit 54 .

また、アプリ登録画面130は、アプリ名入力欄134、検索ボタン135、検索結果表示欄136、及び、登録ボタン137を有している。ユーザが登録するアプリ名を知っている場合、ユーザはアプリ名入力欄134にアプリ名の一部又は全部を入力して検索ボタン135を押下する。表示装置2は、アプリ名でフォルダを検索して、検索結果を検索結果表示欄136に表示する。所望のアプリが検索結果表示欄136に表示された場合、ユーザはアプリのファイル名を選択し、登録ボタン137を押下する。これにより、登録アプリ記憶部54にアプリが登録される。 The application registration screen 130 also has an application name input field 134 , a search button 135 , a search result display field 136 and a registration button 137 . When the user knows the name of the application to be registered, the user enters part or all of the application name in the application name input field 134 and presses the search button 135 . The display device 2 searches the folder by the application name and displays the search result in the search result display field 136. FIG. When the desired application is displayed in search result display field 136 , the user selects the file name of the application and presses registration button 137 . Thereby, the application is registered in the registered application storage unit 54 .

<動作手順>
図12は、表示装置2が第一画像12を生成する手順を示すフローチャート図の一例である。図12の処理は、ユーザがUI画像(A)に対し第一画面9の保存操作を行うとスタートする。
<Operation procedure>
FIG. 12 is an example of a flow chart diagram showing a procedure for the display device 2 to generate the first image 12 . The process of FIG. 12 starts when the user performs a save operation on the first screen 9 for the UI image (A).

入力画像取得部52は入力画像(C)を取得して画像データ記憶部55に記憶する(S1)。背景画像取得部56が背景画像(D)を保存してもよい。また、第二画像取得部53は各アプリの第二画像11を取得して画像データ記憶部55に記憶する(S2)。ステップS2の処理の詳細は図13にて説明する。これらにより、画像データ記憶部55には、入力画像(C)と各第二アプリ103の第二画像11が記憶された。なお、ステップS1とS2の処理順は逆でもよい。 The input image acquisition unit 52 acquires the input image (C) and stores it in the image data storage unit 55 (S1). The background image acquisition unit 56 may store the background image (D). Also, the second image acquisition unit 53 acquires the second image 11 of each application and stores it in the image data storage unit 55 (S2). Details of the processing in step S2 will be described with reference to FIG. As a result, the input image (C) and the second image 11 of each second application 103 are stored in the image data storage unit 55 . Note that the processing order of steps S1 and S2 may be reversed.

次に、ページ処理部37は、入力画像(C)を画像生成部34に送出し、手書きデータと第二画像11を手書きデータ処理部32に送出する。手書きデータ処理部32は手書きデータを手書きデータ画像(B)に変換して、第二画像11の生成時に取得した位置(表7)に基づいて、各第二画像11を手書きデータ画像(B)に配置する。つまり、第二画面と同じ位置に第二画像11を配置する。 Next, the page processing section 37 sends the input image (C) to the image generating section 34 and sends the handwritten data and the second image 11 to the handwritten data processing section 32 . The handwritten data processing unit 32 converts the handwritten data into the handwritten data image (B), and converts each second image 11 into the handwritten data image (B) based on the position (Table 7) obtained when the second image 11 is generated. to be placed. That is, the second image 11 is arranged at the same position as the second screen.

手書きデータ処理部32は第二画像11が配置された手書きデータ画像(B)を表示処理部36に送出し、画像生成部34は入力画像(C)を表示処理部36に送出する。これらにより、表示処理部36は入力画像(C)と第二画像11が配置された手書きデータ画像(B)とを重ねてディスプレイ3に表示する(S3)。 The handwritten data processing unit 32 sends the handwritten data image (B) in which the second image 11 is arranged to the display processing unit 36 , and the image generation unit 34 sends the input image (C) to the display processing unit 36 . As a result, the display processing unit 36 superimposes the input image (C) and the handwritten data image (B) in which the second image 11 is arranged and displays them on the display 3 (S3).

図13は、図12のステップS2の処理の手順を示すフローチャート図である。第二画像取得部53は、登録アプリ記憶部54に登録されているアプリ名を読み出す(S11)。 FIG. 13 is a flow chart showing the procedure of the processing in step S2 of FIG. The second image acquisition unit 53 reads the application name registered in the registered application storage unit 54 (S11).

次に、第二画像取得部53は図10で説明した各種の関数を使用して、第二アプリ103の表示位置と表示サイズを取得する(S12)。 Next, the second image acquisition unit 53 acquires the display position and display size of the second application 103 using various functions described with reference to FIG. 10 (S12).

第二画像取得部53は、表示位置と表示サイズが分かった第二アプリ103の第二画像11を画像データ記憶部55に記憶する(S13)。第二画像11を個別に記憶するのでなく、第一画面9(デスクトップ画面)の全体の第一画像12を生成し、第二アプリ103の表示位置と表示サイズに基づいて第二画像11を切り取って保存してもよい。 The second image acquisition unit 53 stores the second image 11 of the second application 103 whose display position and display size are known in the image data storage unit 55 (S13). Instead of storing the second image 11 individually, the first image 12 of the entire first screen 9 (desktop screen) is generated, and the second image 11 is cropped based on the display position and display size of the second application 103. can be saved.

第二画像取得部53は、登録アプリ記憶部54に登録されている全ての第二アプリ103について図13の処理を行う。手書きデータ処理部32は全ての第二画像11を手書きデータ画像(B)に配置する。 The second image acquisition unit 53 performs the process of FIG. 13 for all the second applications 103 registered in the registered application storage unit 54. FIG. The handwritten data processing unit 32 arranges all the second images 11 in the handwritten data image (B).

<第二画像の編集例>
図14は、2つの第二画像11が配置された手書きデータ画像(B)の一例である。図14(a)は第一画像12(例えば、入力画像(C)と手書きデータ画像)が生成された直後の手書きデータ画像(B)であり、第二アプリ103が表示した第二画面8と同じ位置に第二画像11が表示されている。
<Example of editing the second image>
FIG. 14 is an example of a handwritten data image (B) in which two second images 11 are arranged. FIG. 14A shows the handwritten data image (B) immediately after the first image 12 (for example, the input image (C) and the handwritten data image) is generated. A second image 11 is displayed at the same position.

ユーザは第一画像12を固定したまま、第二画像11Aを削除し、第二画像11Bを縮小した。この状態の第一画像12を図14(b)に示す。本実施形態では、このように、ユーザが第二画像11を削除したり縮小したりできる。 The user deleted the second image 11A and reduced the second image 11B while keeping the first image 12 fixed. The first image 12 in this state is shown in FIG. 14(b). In this embodiment, the user can delete or reduce the size of the second image 11 in this way.

また、ユーザが図14(a)の状態から、第一画像12を固定したまま、第二画像11Aと11Bを移動した。この状態の第一画像12を図14(c)に示す。本実施形態では、このように、ユーザが第二画像11を移動することができる。 Further, the user moves the second images 11A and 11B from the state of FIG. 14(a) while the first image 12 remains fixed. The first image 12 in this state is shown in FIG. 14(c). In this embodiment, the user can move the second image 11 in this way.

また、ユーザが図14(c)の状態から、第一画像12を固定したまま、第二画像11Aを拡大した。この状態の第一画像12を図14(d)に示す。本実施形態では、このように、ユーザが第二画像11を拡大することができる。 Further, the user enlarges the second image 11A from the state of FIG. 14(c) while keeping the first image 12 fixed. The first image 12 in this state is shown in FIG. 14(d). In this embodiment, the user can thus enlarge the second image 11 .

<第二アプリの表示位置と表示サイズの別の取得例>
本実施形態では、登録アプリ記憶部54に予め第二アプリ103が登録されていると説明したが、第二アプリ103は登録されていなくてもよい。この場合、第一アプリ102以外のウィンドウを表示する第二アプリ103が生成する第二画面8を第二画像取得部53が全て取り込むことで第二画像11を生成できる。
<Another example of acquiring the display position and display size of the second application>
Although the second application 103 is registered in advance in the registered application storage unit 54 in this embodiment, the second application 103 does not have to be registered. In this case, the second image 11 can be generated by the second image acquiring unit 53 capturing all of the second screen 8 generated by the second application 103 that displays windows other than the first application 102 .

この場合、第二画像取得部53は例えば上記のGetTopWindow()関数とGetNextWindow()関数で起動中のウィンドウハンドルを取得する。ウィンドウハンドルを取得できたので、第二画像取得部53はGetWindowInfo()関数を実行して第二アプリ103の表示位置と表示サイズを取得できる。表示サイズがゼロでない第二アプリ103があれば、第二画像取得部53は第二画像11を生成する。 In this case, the second image acquisition unit 53 acquires the active window handle by the GetTopWindow( ) function and the GetNextWindow( ) function, for example. Since the window handle has been obtained, the second image obtaining unit 53 can obtain the display position and display size of the second application 103 by executing the GetWindowInfo( ) function. If there is a second application 103 whose display size is not zero, the second image acquisition unit 53 generates the second image 11 .

図15は、登録アプリ記憶部54に予め第二アプリ103が登録されていない場合の、図12のステップS2の処理の手順を示すフローチャート図である。 FIG. 15 is a flowchart showing the procedure of the processing in step S2 of FIG. 12 when the second application 103 is not registered in the registered application storage unit 54 in advance.

第二画像取得部53は起動している全てのアプリのウィンドウハンドルを取得する(S21)。次に、第二アプリ103の表示位置と表示サイズを取得する(S22)。 The second image acquisition unit 53 acquires the window handles of all running applications (S21). Next, the display position and display size of the second application 103 are acquired (S22).

第二画像取得部53は、第二アプリ103の表示サイズがゼロでないかどうかを判断する(S23)。 Second image acquisition unit 53 determines whether the display size of second application 103 is not zero (S23).

第二アプリ103の表示サイズがゼロでない場合、第二画像取得部53は、第二アプリ103の表示位置と表示サイズが分かった第二アプリ103の第二画像11を取得して画像データ記憶部55に記憶する(S24)。 When the display size of the second application 103 is not zero, the second image acquisition unit 53 acquires the second image 11 of the second application 103 for which the display position and display size of the second application 103 are known, and stores the second image 11 in the image data storage unit. 55 (S24).

第二画像取得部53は、起動中の全ての第二アプリ103について図15の処理を行う。手書きデータ処理部32は全ての第二画像11を手書きデータ画像(B)に配置する。 The second image acquisition unit 53 performs the process of FIG. 15 for all the second applications 103 that are running. The handwritten data processing unit 32 arranges all the second images 11 in the handwritten data image (B).

<<登録アプリ記憶部に記憶されているアプリの絞り込み>>
あるいは、登録アプリ記憶部54に第二アプリ103が登録されていることを利用してアプリを絞り込むこともできる。
<< Narrowing down the applications stored in the registered application memory >>
Alternatively, applications can be narrowed down by utilizing the fact that the second application 103 is registered in the registered application storage unit 54 .

図16は、登録アプリ記憶部54に登録されている第二アプリ103を利用した、図12のステップS2の処理の手順を示すフローチャート図である。 FIG. 16 is a flow chart showing the procedure of the process of step S2 in FIG. 12 using the second application 103 registered in the registered application storage unit 54. As shown in FIG.

まず、第二画像取得部53は、起動しているアプリ名を全て取得する(S31)。例えば、windows(登録商標)の場合tasklistというコマンドを実行すると、現在、起動しているアプリの実行ファイル (.exe) の一覧が得られる。 First, the second image acquisition unit 53 acquires the names of all running applications (S31). For example, in the case of windows (registered trademark), executing the command tasklist obtains a list of executable files (.exe) of applications that are currently running.

第二画像取得部53はtasklistで見つかった実行ファイルが登録アプリ記憶部54に登録されているか否かを判断する(S32)。 The second image acquisition unit 53 determines whether or not the execution file found in the tasklist is registered in the registered application storage unit 54 (S32).

登録アプリ記憶部54に登録されているアプリが見つかった場合、第二画像取得部53は第二アプリ103の表示位置と表示サイズを取得する(S33)。 When the application registered in the registered application storage unit 54 is found, the second image acquisition unit 53 acquires the display position and display size of the second application 103 (S33).

第二画像取得部53は、第二アプリ103の表示位置と表示サイズが分かった第二アプリ103の第二画像11を取得して画像データ記憶部55に記憶する(S34)。 The second image acquisition unit 53 acquires the second image 11 of the second application 103 for which the display position and display size of the second application 103 are known, and stores the second image 11 in the image data storage unit 55 (S34).

第二画像取得部53は、起動中の全ての第二アプリ103について図16の処理を行う。手書きデータ処理部32は全ての第二画像11を手書きデータ画像(B)に配置する。 The second image acquisition unit 53 performs the process of FIG. 16 for all the second applications 103 that are running. The handwritten data processing unit 32 arranges all the second images 11 in the handwritten data image (B).

このように、第二画像取得部53は種々の方法で起動中の第二アプリ103を特定し、第二画像11を生成できる。 In this manner, the second image acquisition unit 53 can identify the running second application 103 by various methods and generate the second image 11 .

<アプリ名の別の取得方法>
EnumWindows(EnumWindowCallback, 0)を使用してもよい。第一アプリ102は、EnumWindows(EnumWindowCallback, 0)を呼び出すことで存在するトップレベルのウィンドウハンドルごとにEnumWindowCallbackを呼び出す。これにより、存在するウィンドウハンドルの数だけEnumWindowCallback(HWND handle, LPARAM lparam)が呼び出されるので、第一アプリ102はCallback関数内でGetWindowThreadProcessId()をつかってhandleごとのプロセスIDを取得する。更にこのCallback関数内で取得したプロセスIDごとにGetModuleBasename()を使ってプロセスIDごとのプロセス名も取得することができる。このようにEnumWinodwsを使用することで全ウィンドウハンドルごとにプロセスIDやプロセス名を取得して、アプリ名の一致の判断ができる。
<Another way to get the app name>
You may also use EnumWindows(EnumWindowCallback, 0). The first application 102 calls EnumWindowCallback for each existing top-level window handle by calling EnumWindows(EnumWindowCallback, 0). As a result, EnumWindowCallback(HWND handle, LPARAM lparam) is called for the number of existing window handles, so the first application 102 uses GetWindowThreadProcessId( ) in the Callback function to obtain the process ID for each handle. Furthermore, the process name for each process ID can also be obtained using GetModuleBasename() for each process ID obtained within this Callback function. By using EnumWinodws in this way, it is possible to obtain the process ID and process name for each window handle and determine whether the application names match.

<まとめ>
以上説明したように、本実施形態の表示装置は、第二画面8を第一画像12とは別に第二画像11として保存するので、第一画像12と第二画像11A、11Bを独立した画像とすることができる。また、第二画像11を手書きデータ画像(B)に配置するので、レイヤを増やす必要がなく、手書きデータと同様に第二画像11を移動したり縮小したりするなどの編集が可能になる。
<Summary>
As described above, the display device of the present embodiment saves the second screen 8 as the second image 11 separately from the first image 12, so the first image 12 and the second images 11A and 11B are independent images. can be In addition, since the second image 11 is arranged in the handwritten data image (B), there is no need to increase the number of layers, and editing such as moving or reducing the second image 11 is possible in the same manner as the handwritten data.

本実施例では画像を投影することで表示する表示装置について説明する。 In this embodiment, a display device that displays an image by projecting it will be described.

<<表示装置の構成の別の例1>>
本実施形態の表示装置は大型のタッチパネルを有するものとして説明されているが、表示装置はタッチパネルを有するものに限られない。
<<Another example 1 of the configuration of the display device>>
Although the display device of this embodiment is described as having a large touch panel, the display device is not limited to having a touch panel.

図17は、表示装置の他の構成例を示す図である。図17では、通常のホワイトボード413の上辺にプロジェクター411が設置されている。このプロジェクター411が表示装置に相当する。通常のホワイトボード413とは、タッチパネルと一体のフラットパネルディスプレイではなく、ユーザがマーカーで直接、手書きするホワイトボードである。なお、ホワイトボードは黒板でもよく、映像を投影するだけの広さの平面であればよい。 FIG. 17 is a diagram showing another configuration example of the display device. In FIG. 17, a projector 411 is installed on the upper side of a normal whiteboard 413 . This projector 411 corresponds to a display device. The normal whiteboard 413 is not a flat panel display integrated with a touch panel, but a whiteboard on which the user directly writes with a marker. Note that the whiteboard may be a blackboard, and may be a flat surface that is large enough to project an image.

プロジェクター411は超短焦点の光学系を有しており、10cm程度から歪みの少ない映像をホワイトボード413に投影できる。この映像は、無線又は有線で接続されたPC400ー1から送信されてもよいし、プロジェクター411が記憶していてもよい。 The projector 411 has an ultra-short focal length optical system, and can project an image with little distortion on the whiteboard 413 from about 10 cm. This image may be transmitted from the PC 400 - 1 connected wirelessly or by wire, or may be stored in the projector 411 .

ユーザは専用の電子ペン2501を使ってホワイトボード413に手書きする。電子ペン2501は、ユーザが手書きのためにホワイトボード413に押しつけるとスイッチがONになり発光する発光部を例えば先端部に有している。光の波長は近赤外や赤外なのでユーザの目には見えない。プロジェクター411はカメラを有しており、発光部を撮像して画像を解析し電子ペン2501の方向を特定する。また、電子ペン2501は発光と共に音波を発信しており、プロジェクター411は音波の到達時間により距離を算出する。方向と距離により電子ペン2501の位置を特定できる。電子ペン2501の位置には手書きデータが描画(投影)される。 The user writes by hand on the whiteboard 413 using the dedicated electronic pen 2501 . The electronic pen 2501 has a light-emitting portion, for example, at its tip, which is turned on when the user presses it against the whiteboard 413 for handwriting. Since the wavelength of light is in the near infrared or infrared, it is invisible to the user's eyes. The projector 411 has a camera, captures an image of the light emitting unit, analyzes the image, and identifies the direction of the electronic pen 2501 . Also, the electronic pen 2501 emits light and emits sound waves, and the projector 411 calculates the distance based on the arrival time of the sound waves. The position of the electronic pen 2501 can be identified by the direction and distance. Handwritten data is drawn (projected) at the position of the electronic pen 2501 .

プロジェクター411はメニュー430を投影するので、ユーザが電子ペン2501でボタンを押下すると、プロジェクター411が電子ペン2501の位置とスイッチのON信号により押下されたボタンを特定する。例えば、保存ボタン431が押下されると、ユーザが手書きしたデータ(座標の集合)がプロジェクター411で保存される。プロジェクター411は、予め定められたサーバ412又はUSBメモリ5等に手書き情報を保存する。手書き情報はページごとに保存されている。画像データではなく座標のまま保存されるので、ユーザが再編集することができる。ただし、本実施形態では操作コマンドを手書きで呼び出せるのでメニュー430は表示されなくてもよい。 Since the projector 411 projects the menu 430, when the user presses a button with the electronic pen 2501, the projector 411 identifies the pressed button based on the position of the electronic pen 2501 and the ON signal of the switch. For example, when the save button 431 is pressed, the data (set of coordinates) handwritten by the user is saved in the projector 411 . The projector 411 stores the handwritten information in a predetermined server 412, USB memory 5, or the like. Handwritten information is stored page by page. Since the coordinates are saved as they are instead of the image data, the user can re-edit them. However, in this embodiment, the menu 430 does not have to be displayed because the operation command can be called by handwriting.

<<表示装置の構成の別の例2>>
図18は、表示装置の他の構成例を示す図である。図18の例では、表示装置として、端末装置600、画像投影装置700A、及び、ペン動作検出装置810を有する。
<<Another example 2 of the configuration of the display device>>
FIG. 18 is a diagram showing another configuration example of the display device. In the example of FIG. 18, a terminal device 600, an image projection device 700A, and a pen motion detection device 810 are provided as display devices.

端末装置600は、画像投影装置700A及びペン動作検出装置810と有線で接続されている。画像投影装置700Aは、端末装置600により入力された画像データをスクリーン800に投影させる。 The terminal device 600 is connected to the image projection device 700A and the pen motion detection device 810 by wire. The image projection device 700A projects image data input from the terminal device 600 onto the screen 800 .

ペン動作検出装置810は、電子ペン820と通信を行っており、スクリーン800の近傍における電子ペン820の動作を検出する。具体的には、電子ペン820は、スクリーン800上において、電子ペン820が示している点を示す座標情報を検出し、端末装置600へ送信する。 The pen motion detection device 810 communicates with the electronic pen 820 and detects motion of the electronic pen 820 in the vicinity of the screen 800 . Specifically, the electronic pen 820 detects coordinate information indicating a point indicated by the electronic pen 820 on the screen 800 and transmits the coordinate information to the terminal device 600 .

端末装置600は、ペン動作検出装置810から受信した座標情報に基づき、電子ペン820によって入力される手書きデータ画像(B)の画像データを生成し、画像投影装置700Aによって手書きデータ画像(B)をスクリーン800に描画させる。 Terminal device 600 generates image data of handwritten data image (B) input by electronic pen 820 based on the coordinate information received from pen motion detection device 810, and projects handwritten data image (B) by image projection device 700A. Draw on the screen 800 .

また、端末装置600は、画像投影装置700Aに投影させている背景画像(D)と、電子ペン820によって入力された手書きデータ画像(B)とを合成した重畳画像を示す重畳画像データを生成する。 In addition, the terminal device 600 generates superimposed image data indicating a superimposed image obtained by synthesizing the background image (D) projected by the image projection device 700A and the handwritten data image (B) input by the electronic pen 820. .

<<表示装置の構成の別の例3>>
図19は、表示装置の構成例を示す図である。図19の例では、表示装置として、端末装置600とディスプレイ800Aと、ペン動作検出装置810とを有する。
<<Another example 3 of the configuration of the display device>>
FIG. 19 is a diagram illustrating a configuration example of a display device. In the example of FIG. 19, a terminal device 600, a display 800A, and a pen motion detection device 810 are provided as display devices.

ペン動作検出装置810は、ディスプレイ800Aの近傍に配置され、ディスプレイ800A上に、電子ペン820Aが示している点を示す座標情報を検出し、端末装置600へ送信する。なお、図19の例では、電子ペン820Aは、端末装置600によってUSBコネクタを介して充電されても良い。 Pen motion detection device 810 is arranged near display 800 A, detects coordinate information indicating a point indicated by electronic pen 820 A on display 800 A, and transmits the information to terminal device 600 . Note that in the example of FIG. 19, the electronic pen 820A may be charged by the terminal device 600 via a USB connector.

端末装置600は、ペン動作検出装置810から受信した座標情報に基づき、電子ペン820Aによって入力される手書きデータ画像(B)の画像データを生成し、ディスプレイ800Aに表示させる。 Terminal device 600 generates image data of handwritten data image (B) input by electronic pen 820A based on the coordinate information received from pen motion detection device 810, and displays it on display 800A.

<<表示装置の構成の別の例4>>
図20は、表示装置の構成例を示す図である。図20の例では、表示装置として、端末装置600と、画像投影装置700Aとを有する。
<<Another example 4 of the configuration of the display device>>
FIG. 20 is a diagram illustrating a configuration example of a display device. In the example of FIG. 20, a terminal device 600 and an image projection device 700A are provided as display devices.

端末装置600は、電子ペン820Bと無線通信(Bluetooth(登録商標)等)を行って、スクリーン800上において電子ペン820Bが示す点の座標情報を受信する。そして、端末装置600は、受信した座標情報に基づき、電子ペン820Bにより入力される手書きデータ画像(B)の画像データを生成し、画像投影装置700Aに手書きデータ画像(B)を投影させる。 Terminal device 600 performs wireless communication (Bluetooth (registered trademark), etc.) with electronic pen 820B to receive coordinate information of a point indicated by electronic pen 820B on screen 800 . Based on the received coordinate information, terminal device 600 generates image data of handwritten data image (B) input by electronic pen 820B, and causes image projection device 700A to project handwritten data image (B).

また、端末装置600は、画像投影装置700Aに投影させている背景画像(D)と、電子ペン820によって入力された手書きデータ画像(B)とを合成した重畳画像を示す重畳画像データを生成する。 In addition, the terminal device 600 generates superimposed image data indicating a superimposed image obtained by synthesizing the background image (D) projected by the image projection device 700A and the handwritten data image (B) input by the electronic pen 820. .

以上のように、上記した各実施形態は、様々なシステム構成において適用することができる。 As described above, each of the above-described embodiments can be applied in various system configurations.

<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
Although the best mode for carrying out the present invention has been described above using examples, the present invention is by no means limited to such examples, and various modifications can be made without departing from the scope of the present invention. and substitutions can be added.

例えば、本実施形態では、電子黒板として使用できる表示装置を説明したが、表示装置は画像を表示できればよく、例えばデジタルサイネージなどでもよい。 For example, in the present embodiment, a display device that can be used as an electronic blackboard has been described, but the display device may be any display device that can display images, such as digital signage.

また、表示する画像は動画でも静止画でもよい。 Moreover, the image to be displayed may be a moving image or a still image.

また、本実施形態では電子黒板を一例として説明したが、タッチパネルを有する情報処理装置であれば好適に適用できる。タッチパネルを搭載した情報処理装置としては、例えば、PJ(Projector:プロジェクター)、デジタルサイネージ等の出力装置、HUD(Head Up Display)装置、産業機械、撮像装置、集音装置、医療機器、ネットワーク家電、ノートPC(Personal Computer)、携帯電話、スマートフォン、タブレット端末、ゲーム機、PDA(Personal Digital Assistant)、デジタルカメラ、ウェアラブルPC又はデスクトップPC等であってもよい。 Further, although the electronic blackboard has been described as an example in the present embodiment, any information processing apparatus having a touch panel can be suitably applied. Examples of information processing devices equipped with a touch panel include PJs (projectors), output devices such as digital signage, HUD (Head Up Display) devices, industrial machines, imaging devices, sound collectors, medical equipment, network appliances, A notebook PC (Personal Computer), a mobile phone, a smart phone, a tablet terminal, a game machine, a PDA (Personal Digital Assistant), a digital camera, a wearable PC, a desktop PC, or the like may be used.

また、本実施形態ではペン先の座標をタッチパネルで検知する方法でペンの座標を検出したが、ペン先の座標を超音波により検出してもよい。ペンは発光と共に超音波を発信しており、表示装置2は超音波の到達時間により距離を算出する。方向と距離によりペンの位置を特定できる。ペンの軌跡を手書きデータとしてプロジェクターが描画(投影)する。 Further, in the present embodiment, the coordinates of the pen tip are detected by the method of detecting the coordinates of the pen tip with the touch panel, but the coordinates of the pen tip may be detected by ultrasonic waves. The pen emits light and emits ultrasonic waves, and the display device 2 calculates the distance from the arrival time of the ultrasonic waves. The position of the pen can be specified by direction and distance. The projector draws (projects) the trajectory of the pen as handwritten data.

また、図6,図8などの構成例は、表示装置2による処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。表示装置2の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。 6 and 8 are divided according to main functions in order to facilitate understanding of the processing by the display device 2. FIG. The present invention is not limited by the division method or name of the processing unit. The processing of the display device 2 can also be divided into more processing units according to the content of the processing. Also, one processing unit can be divided to include more processing.

また、上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。 Also, each function of the embodiments described above can be realized by one or more processing circuits. Here, the "processing circuit" in this specification means a processor programmed by software to perform each function, such as a processor implemented by an electronic circuit, or a processor designed to perform each function described above. devices such as ASICs (Application Specific Integrated Circuits), DSPs (digital signal processors), FPGAs (field programmable gate arrays) and conventional circuit modules.

1 画像処理システム
2 表示装置
3 ディスプレイ
1 image processing system 2 display device 3 display

特開2016-15098号公報Japanese Patent Application Laid-Open No. 2016-15098

Claims (8)

第一アプリが生成する第一画面に重ねて第二アプリが生成する第二画面を表示する表示装置であって、
前記第一画面に表示されている第一画像を取得する全体画像取得部と、
前記第二画面に表示されている第二画像を取得する第二画像取得部と、
前記第一画像に重ねて前記第二画像を表示する表示処理部と、
前記第二画像への編集を受け付ける操作処理部と、
ペン又は手による手書きデータを手書きデータ画像に変換する手書きデータ処理部と、を有し、
前記第一画面には、前記手書きデータ画像と外部から入力された入力画像が重ねて表示されており、
前記第一画像を取得する操作が入力された場合、
入力画像取得部が前記入力画像を取得し、前記第二画像取得部が前記第二画像を取得し、
前記手書きデータ処理部は、前記手書きデータ画像に前記第二画像を配置し、
前記表示処理部は、前記第二画像が配置された前記手書きデータ画像と前記入力画像を重ねて表示することを特徴とする表示装置。
A display device for displaying a second screen generated by a second application superimposed on a first screen generated by a first application,
a whole image acquisition unit that acquires the first image displayed on the first screen;
a second image acquisition unit that acquires a second image displayed on the second screen;
a display processing unit that displays the second image superimposed on the first image;
an operation processing unit that receives edits to the second image;
a handwritten data processing unit that converts handwritten data with a pen or hand into a handwritten data image;
The handwritten data image and the input image input from the outside are superimposed and displayed on the first screen,
When an operation to acquire the first image is input,
an input image acquiring unit acquires the input image, the second image acquiring unit acquires the second image,
The handwritten data processing unit arranges the second image in the handwritten data image,
The display device, wherein the display processing unit displays the handwritten data image in which the second image is arranged and the input image in an overlapping manner .
前記第二画像取得部は、前記第一画面における前記第二画面の位置を取得し、
前記表示処理部は、前記第一画面における前記第二画面の同じ位置に前記第二画像を表示することを特徴とする請求項1に記載の表示装置。
The second image acquisition unit acquires the position of the second screen in the first screen,
2. The display device according to claim 1, wherein the display processing unit displays the second image on the same position of the second screen on the first screen.
前記操作処理部は、前記第一画像を固定したまま、前記第二画像の縮小、拡大、削除、又は、移動を受け付けることを特徴とする請求項1又は2に記載の表示装置。 3. The display device according to claim 1, wherein the operation processing unit accepts reduction, enlargement, deletion, or movement of the second image while fixing the first image. 前記第二画像取得部は、予め登録されている前記第二アプリのアプリ名のプロセスIDをOSから取得し、
前記表示装置で起動しているアプリのプロセスIDと一致するプロセスIDを有する前記第二アプリのウィンドウハンドルに基づいて、前記第二アプリが生成する前記第二画面の表示位置をOSから取得し、
取得した表示位置から前記第二画像を取得することを特徴とする請求項1~3のいずれか1項に記載の表示装置。
The second image acquisition unit acquires a process ID of an application name of the second application registered in advance from the OS,
acquiring from the OS the display position of the second screen generated by the second application based on the window handle of the second application having a process ID that matches the process ID of the application running on the display device;
4. The display device according to any one of claims 1 to 3, wherein the second image is acquired from the acquired display position.
前記第二画像取得部は、前記表示装置で起動している全てのアプリのウィンドウハンドルをOSから取得し、
前記ウィンドウハンドルを有するウィンドウの表示位置と表示サイズをOSから取得し、
前記表示サイズがゼロでない前記ウィンドウハンドルのアプリが前記第二アプリであると特定し、
OSから取得した前記第二アプリの表示位置から前記第二画像を取得することを特徴とする請求項1~3のいずれか1項に記載の表示装置。
The second image acquisition unit acquires window handles of all applications running on the display device from the OS,
obtaining from the OS the display position and display size of the window having the window handle;
identifying that the app with the window handle whose display size is not zero is the second app;
4. The display device according to any one of claims 1 to 3, wherein the second image is acquired from the display position of the second application acquired from an OS.
前記第二画像取得部は、前記表示装置で起動している全てのアプリのアプリ名をOSから取得し、
OSから取得した前記アプリ名が、予め登録されている前記第二アプリのアプリ名と一致する場合、
前記アプリ名のアプリの表示位置をOSから取得し、
前記表示位置から前記第二画像を取得することを特徴とする請求項1~3のいずれか1項に記載の表示装置。
The second image acquisition unit acquires application names of all applications running on the display device from the OS,
When the application name obtained from the OS matches the application name of the pre-registered second application,
Acquiring the display position of the application with the application name from the OS,
4. The display device according to claim 1, wherein said second image is obtained from said display position.
第一アプリが生成する第一画面に重ねて第二アプリが生成する第二画面を表示する表示装置が行う画像表示方法であって、
全体画像取得部が、前記第一画面に表示されている第一画像を取得するステップと、
第二画像取得部が、前記第二画面に表示されている第二画像を取得するステップと、
表示処理部が、前記第一画像に重ねて前記第二画像を表示するステップと、
操作処理部が、前記第二画像への編集を受け付けるステップと、
手書きデータ処理部が、ペン又は手による手書きデータを手書きデータ画像に変換するステップと、を有し、
前記第一画面には、前記手書きデータ画像と外部から入力された入力画像が重ねて表示されており、
前記第一画像を取得する操作が入力された場合、
入力画像取得部が前記入力画像を取得し、前記第二画像取得部が前記第二画像を取得し、
前記手書きデータ処理部は、前記手書きデータ画像に前記第二画像を配置し、
前記表示処理部は、前記第二画像が配置された前記手書きデータ画像と前記入力画像を重ねて表示することを特徴とする画像表示方法。
An image display method performed by a display device that displays a second screen generated by a second application superimposed on a first screen generated by a first application, comprising:
a step of obtaining a first image displayed on the first screen by an overall image obtaining unit;
a second image acquisition unit acquiring a second image displayed on the second screen;
a display processing unit displaying the second image superimposed on the first image;
an operation processing unit accepting an edit to the second image;
a handwriting data processor converting pen or hand handwriting data into a handwriting data image;
The handwritten data image and the input image input from the outside are superimposed and displayed on the first screen,
When an operation to acquire the first image is input,
an input image acquiring unit acquires the input image, the second image acquiring unit acquires the second image,
The handwritten data processing unit arranges the second image in the handwritten data image,
The image display method , wherein the display processing unit superimposes and displays the handwritten data image in which the second image is arranged and the input image .
第一アプリが生成する第一画面に重ねて第二アプリが生成する第二画面を表示する表示装置を、
前記第一画面に表示されている第一画像を取得する全体画像取得部と、
前記第二画面に表示されている第二画像を取得する第二画像取得部と、
前記第一画像に重ねて前記第二画像を表示する表示処理部と、
前記第二画像への編集を受け付ける操作処理部と、
ペン又は手による手書きデータを手書きデータ画像に変換する手書きデータ処理部、として機能させ
前記第一画面には、前記手書きデータ画像と外部から入力された入力画像が重ねて表示されており、
前記第一画像を取得する操作が入力された場合、
入力画像取得部が前記入力画像を取得し、前記第二画像取得部が前記第二画像を取得し、
前記手書きデータ処理部は、前記手書きデータ画像に前記第二画像を配置し、
前記表示処理部は、前記第二画像が配置された前記手書きデータ画像と前記入力画像を重ねて表示するためのプログラム。
A display device that displays a second screen generated by a second application superimposed on a first screen generated by a first application,
a whole image acquisition unit that acquires the first image displayed on the first screen;
a second image acquisition unit that acquires a second image displayed on the second screen;
a display processing unit that displays the second image superimposed on the first image;
an operation processing unit that receives edits to the second image;
Function as a handwritten data processing unit that converts handwritten data by pen or hand into a handwritten data image ,
The handwritten data image and the input image input from the outside are superimposed and displayed on the first screen,
When an operation to acquire the first image is input,
an input image acquiring unit acquires the input image, the second image acquiring unit acquires the second image,
The handwritten data processing unit arranges the second image in the handwritten data image,
The display processing unit is a program for displaying the handwritten data image in which the second image is arranged and the input image in an overlapping manner .
JP2019172088A 2019-09-20 2019-09-20 Display device, image display method, program Active JP7331578B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019172088A JP7331578B2 (en) 2019-09-20 2019-09-20 Display device, image display method, program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019172088A JP7331578B2 (en) 2019-09-20 2019-09-20 Display device, image display method, program

Publications (2)

Publication Number Publication Date
JP2021051359A JP2021051359A (en) 2021-04-01
JP7331578B2 true JP7331578B2 (en) 2023-08-23

Family

ID=75157865

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019172088A Active JP7331578B2 (en) 2019-09-20 2019-09-20 Display device, image display method, program

Country Status (1)

Country Link
JP (1) JP7331578B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008250700A (en) 2007-03-30 2008-10-16 Canon Inc Information processor, window reproduction method and program
JP2017091297A (en) 2015-11-12 2017-05-25 Kddi株式会社 Screen transition specification device, screen transition specification system, and screen transition specification method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008250700A (en) 2007-03-30 2008-10-16 Canon Inc Information processor, window reproduction method and program
JP2017091297A (en) 2015-11-12 2017-05-25 Kddi株式会社 Screen transition specification device, screen transition specification system, and screen transition specification method

Also Published As

Publication number Publication date
JP2021051359A (en) 2021-04-01

Similar Documents

Publication Publication Date Title
US9479693B2 (en) Method and mobile terminal apparatus for displaying specialized visual guides for photography
US9324305B2 (en) Method of synthesizing images photographed by portable terminal, machine-readable storage medium, and portable terminal
JP7042622B2 (en) Image processing device, image processing system, image processing method, and program
US20180082663A1 (en) Information processing apparatus, image displaying method, and non-transitory computer readable medium
JP6035971B2 (en) Information processing apparatus, program, and image processing system
US20170212906A1 (en) Interacting with user interfacr elements representing files
US10469274B2 (en) Live ink presence for real-time collaboration
JP2019159261A (en) Electronic blackboard, picture display method, and program
JP2016038728A (en) Image display device, control method of image display device and program thereof
JP2017211494A (en) Image processing apparatus, image processing system, image processing method, and program
US10921977B2 (en) Information processing apparatus and information processing method
WO2018109876A1 (en) Display device, electronic blackboard system, and user interface setting method
JP7331578B2 (en) Display device, image display method, program
JP6773977B2 (en) Terminal device and operation control program
US11221760B2 (en) Information processing apparatus, information processing method, and storage medium
JP7338330B2 (en) Display device, display method, program
JP2019219965A (en) Shared terminal, writing method, and program
JP7435184B2 (en) Communication device, communication device control method, and program
JP2022087633A (en) Display device, erasing method switching method, and program
JP7342501B2 (en) Display device, display method, program
JP7287156B2 (en) Display device, display method, program
US20230333731A1 (en) Display apparatus, display system, display method, and non-transitory recording medium
JP7279425B2 (en) DISPLAY DEVICE, DISPLAY SYSTEM, OPERATING MODE CONTROL METHOD, AND PROGRAM
US11816327B2 (en) Display apparatus, method for displaying, and non-transitory recording medium
JP7306190B2 (en) Display device, display method, program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220721

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230724

R151 Written notification of patent or utility model registration

Ref document number: 7331578

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151