JP7331578B2 - Display device, image display method, program - Google Patents
Display device, image display method, program Download PDFInfo
- Publication number
- JP7331578B2 JP7331578B2 JP2019172088A JP2019172088A JP7331578B2 JP 7331578 B2 JP7331578 B2 JP 7331578B2 JP 2019172088 A JP2019172088 A JP 2019172088A JP 2019172088 A JP2019172088 A JP 2019172088A JP 7331578 B2 JP7331578 B2 JP 7331578B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- application
- display device
- screen
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、表示装置、画像表示方法、及び、プログラムに関する。 The present invention relates to a display device, an image display method, and a program.
コンピュータのディスプレイ等の視覚出力デバイスに表示された画面の一部又は全体のコピーを保存する技術又は保存した画像(以下、第一画像という)が知られている。第一画像はスクリーンショットやキャプチャ画像等と呼ばれる場合がある。ユーザは必要な場合に保存しておいた第一画像をディスプレイ等に表示することができる。したがって、ユーザは記録しておきたい画面を手軽に保存しておき後で再利用できる。 Techniques for saving a copy of part or all of a screen displayed on a visual output device such as a computer display or a saved image (hereinafter referred to as first image) are known. The first image may be called a screenshot, captured image, or the like. The user can display the saved first image on a display or the like when necessary. Therefore, the user can easily save the screen that he/she wants to record and reuse it later.
タッチパネルにペンや指で手書きしたデータを表示する表示装置においても、第一画像の生成を可能にする技術が考案されている(例えば、特許文献1参照)。特許文献1には、手書きデータの第一画像を保存する表示装置について開示されている。
A technique has been devised that enables generation of a first image even in a display device that displays data handwritten with a pen or a finger on a touch panel (see, for example, Patent Document 1).
しかしながら、従来の第一画像では、ディスプレイ等に表示されていた各アプリケーションソフトの画像(以下、第二画像という)を後からユーザが編集できないという問題があった。表示装置は手書き用のアプリケーションソフト(以下、単に第一アプリという)を実行することで手書きデータを表示するなどの機能を提供するが、第一アプリ以外のアプリ(以下、第二アプリという)も実行できる。したがって、第二アプリが実行されている場合に、第一画像が生成されると、第二アプリが生成する第二画像を含む第一画像が生成される。 However, the conventional first image has a problem that the user cannot edit the image of each application software displayed on the display or the like (hereinafter referred to as the second image) later. The display device provides functions such as displaying handwritten data by executing application software for handwriting (hereinafter simply referred to as the first application), but applications other than the first application (hereinafter referred to as the second application) are also provided. can run. Therefore, when the first image is generated while the second application is running, the first image including the second image generated by the second application is generated.
この第二画像により第一画像の一部が隠れてしまうため、ユーザとしては第二画像を移動させたり削除したりしたい場合などがあるが、従来は、第二画像をこのように編集することはできなかった。 Since the second image partially hides the first image, the user may want to move or delete the second image. I couldn't.
本発明は、上記課題に鑑み、ユーザが編集できる第二画像を表示することができる表示装置等を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a display device or the like capable of displaying a second image that can be edited by a user.
上記課題に鑑み、本発明は、第一アプリが生成する第一画面に重ねて第二アプリが生成する第二画面を表示する表示装置であって、前記第一画面に表示されている第一画像を取得する全体画像取得部と、前記第二画面に表示されている第二画像を取得する第二画像取得部と、前記第一画像に重ねて前記第二画像を表示する表示処理部と、前記第二画像への編集を受け付ける操作処理部と、ペン又は手による手書きデータを手書きデータ画像に変換する手書きデータ処理部と、を有し、前記第一画面には、前記手書きデータ画像と外部から入力された入力画像が重ねて表示されており、前記第一画像を取得する操作が入力された場合、入力画像取得部が前記入力画像を取得し、前記第二画像取得部が前記第二画像を取得し、 前記手書きデータ処理部は、前記手書きデータ画像に前記第二画像を配置し、前記表示処理部は、前記第二画像が配置された前記手書きデータ画像と前記入力画像を重ねて表示する、ことを特徴とする。
In view of the above problems, the present invention provides a display device for displaying a second screen generated by a second application superimposed on a first screen generated by a first application, wherein the first screen displayed on the first screen is displayed on the first screen. a whole image acquisition unit that acquires an image; a second image acquisition unit that acquires a second image displayed on the second screen; and a display processing unit that displays the second image superimposed on the first image. , an operation processing unit that receives edits to the second image, and a handwritten data processing unit that converts handwritten data with a pen or hand into a handwritten data image, and the first screen displays the handwritten data image and When an input image input from the outside is superimposed and displayed, and an operation for obtaining the first image is input, the input image obtaining unit obtains the input image, and the second image obtaining unit obtains the first image. obtaining two images, wherein the handwritten data processing unit arranges the second image on the handwritten data image, and the display processing unit overlaps the handwritten data image in which the second image is arranged and the input image; It is characterized by displaying
ユーザが編集できる第二画像を表示することができる表示装置等を提供することができる。 A display device or the like can be provided that can display a second image that can be edited by the user.
以下、本発明を実施するための形態の一例として、表示装置と表示装置が行う画像表示方法について説明する。 A display device and an image display method performed by the display device will be described below as an example of a mode for carrying out the present invention.
<比較例>
まず、本実施形態の表示装置を説明するに際して、好適な比較例を説明する。この比較例は従来技術とは限らない点に注意されたい。
<Comparative example>
First, a suitable comparative example will be described when describing the display device of the present embodiment. Note that this comparative example is not necessarily prior art.
図1は比較例である表示装置の概略的な動作を説明する図の一例である。図1(a)は表示装置がディスプレイ3に表示する画面(以下、第一画面9という)の一例である。第一画面9は、ユーザがタッチパネルにペンや指で手書きしたデータを表示する第一アプリが表示している。第一画面9に重ねて、2つの第二アプリがウィンドウを形成しており、ウィンドウにはアプリがそれぞれの第二画面8A,8Bを表示している。図1(a)に示すように第二画面8A,8Bは手書きデータと重なっている。なお、ウィンドウとはディスプレイ画面上に設けられた情報を表示するための長方形の領域である。
FIG. 1 is an example of a diagram explaining a schematic operation of a display device as a comparative example. FIG. 1(a) is an example of a screen displayed on the
なお、以下では、第二画像11A,11Bのうち任意の第二画像を第二画像11といい、第二画面8A,8Bのうち任意の第二画面を第二画面8という。
An arbitrary second image of the
第一画面9がコピーされた第一画像12を生成する操作をユーザが表示装置に入力すると、表示装置が第一画像12を生成する。図1(b)は比較例としての第一画像12の一例を示す。表示装置が生成する第一画像12には第二画像11A,11Bが含まれるが、表示装置は第二画面8A,8Bの存在を意識しないため、第二画像11A,11Bは第一画像12の一部である(一体化している)。したがって、ユーザが手書きデータを確認したくても、第二画像11を移動したり縮小したりするなどの編集ができなかった。
When the user inputs an operation to the display device to generate the
<本実施形態の表示装置の動作の概略>
次に、図2を用いて、本実施形態の表示装置の概略的な動作について説明する。図2は本実施形態の表示装置が生成する第一画像12を説明する図である。図2(a)については図1(a)と同様である。
<Outline of operation of the display device of the present embodiment>
Next, schematic operation of the display device of this embodiment will be described with reference to FIG. FIG. 2 is a diagram for explaining the
ユーザが第一画面9の第一画像12を生成する操作を表示装置に入力すると、表示装置が第一画像12と第二画像11を生成する。図2(b)は、第一画像12と第二画像11を模式的に示す。表示装置は、起動している第二アプリを検出し、第二アプリが生成する第二画面8A,8Bを第一画像12とは別の画像として保存する。図2(b)に示すように、第一画像12とは別に第二画像11A、11Bが生成される。第一画像12と第二画像11A、11Bとは独立した別の画像となる(例えば合計3つの画像が生成される)。
When the user inputs an operation to generate the
図2(c)は、第一画像12に重ねて表示された第二画像11A、11Bを示す。第一画像12と第二画像11A、11Bとは独立した別の画像なので、ユーザは第一画像12上の第二画像11A,11Bに対し移動、縮小、拡大、削除、又は回転などの編集を行うことができ、第二画像11A、11Bの下側にある手書きデータを確認することができる。
FIG. 2C shows the
このように、本実施形態の表示装置は、第二画面8を第一画像12とは別に第二画像11として保存するので、第二画像11を移動したり縮小したりするなどの編集が可能になる。
Thus, the display device of the present embodiment saves the
<用語について>
第一画面9は、第一アプリが生成する画面である。第一アプリは表示装置の主要な機能を提供するアプリであり、主にディスプレイ3のほぼ全体をカバーする第一画面9を生成する。第二画面8は第一アプリ以外のアプリ(これを第二アプリという)が生成する画面である。第二画面8は第一画面9に対し重なっている。ただし、第一画面9はディスプレイ3の全体をカバーしなくてもよい。
<Terms>
The
手書きデータとは、ディスプレイ上でユーザが入力手段を連続的に移動させた座標点列を軌跡として表示したデータである。また、ユーザがディスプレイに入力手段を押しつけてから連続的に移動させた後、ディスプレイから離すという一連の操作をストロークといい、ストロークにより手書きされたデータをストロークデータという場合がある。手書きデータは1つ以上のストロークデータを有するが、本実施形態では区別せずに手書きデータという。 Handwritten data is data in which a sequence of coordinate points is displayed as a trajectory on the display by the user continuously moving the input means. A series of operations in which the user presses the input means against the display, moves it continuously, and then releases it from the display is called a stroke, and data handwritten by the stroke is sometimes called stroke data. Handwritten data has one or more stroke data, but in this embodiment, it is called handwritten data without distinction.
<システムの概要>
図3は、本実施形態の画像処理システム1の全体構成図である。なお、図3では、説明を簡略化するために、2台の表示装置2a,2b及びこれに付随する電子ペン4a,4b等を示しているだけであって、3台以上の表示装置2や電子ペン等を利用してもよい。
<Overview of the system>
FIG. 3 is an overall configuration diagram of the
図3に示されているように、画像処理システム1は、複数の表示装置2a,2b、複数の電子ペン4a,4b、USBメモリ5a,5b、外部装置6a,6b、テレビ(ビデオ)会議端末7a,7b、及びPC(Personal Computer)8を有する。また、表示装置2a,2b、及びPC8は、通信ネットワークNを介して通信可能に接続されている。更に、複数の表示装置2a,2bには、それぞれディスプレイ3a,3bが設けられている。
As shown in FIG. 3, the
また、表示装置2aには、電子ペン4aによって生じたイベント(ディスプレイ3aに電子ペン4aのペン先、又は、電子ペン4aのペン尻のタッチ)による描画された画像を、ディスプレイ3aに表示させることができる。なお、電子ペン4aだけでなく、ユーザの手Ha等によって生じたイベント(拡大、縮小、ページめくり等のジェスチャ)に基づいて、ディスプレイ3a上に表示されている画像を変更させることもできる。
In addition, the
また、表示装置2aには、USBメモリ5aが接続可能であり、表示装置2aはUSBメモリ5aからPDF等の電子ファイルを読み出したり、表示装置2aはUSBメモリ5aに電子ファイルを記録したりすることができる。また、表示装置2aには、DisplayPort(登録商標)、DVI(Digital Visual Interface)、HDMI(登録商標。High-Definition Multimedia Interface)及びVGA(Video Graphics Array)等の規格による通信が可能なケーブル10a1を介して、外部装置6aが接続されている。ケーブル10a1はネットワークでもよい。
A
そして、表示装置2aは、ディスプレイ3aに対する接触によってイベントを発生させ、このイベントを示すイベント情報を、マウスやキーボード等の入力装置からのイベントと同様に、外部装置6aに送信する。同じく、表示装置2aには、上記規格による通信が可能なケーブル10a2を介して、テレビ(ビデオ)会議端末7aが接続されている。なお、外部装置6a、及びテレビ会議端末7aは、Bluetooth(登録商標)等の各種無線通信プロトコルに準拠した無線通信により、表示装置2aと通信してもよい。
Then, the
一方、表示装置2bが設置されている他の拠点では、上記と同様に、ディスプレイ3bを備えた表示装置2b、電子ペン4b、USBメモリ5b、外部装置6b、テレビ会議端末7b、ケーブル10b1、ケーブル10b2が利用される。更に、ユーザの手Hb等によって生じたイベントに基づいて、ディスプレイ3b上に表示されている画像を変更させることもできる。
On the other hand, at other bases where the
これにより、一の拠点で表示装置2aのディスプレイ3a上に描画された画像は、他の拠点で表示装置2bのディスプレイ3b上にも表示され、逆に他の拠点で表示装置2bのディスプレイ3b上に描画された画像は、一の拠点で表示装置2aのディスプレイ3a上に表示される。このように、画像処理システム1では、遠隔地において同じ画像を共有する遠隔共有処理を行うことができるため、遠隔地での会議等に用いると、非常に便利である。
As a result, an image drawn on the
なお、以下では、複数の表示装置2のうち任意の表示装置2を示す場合には「表示装置2」と示す。複数のディスプレイ3のうち任意のディスプレイ3を示す場合には「ディスプレイ3」と示す。複数の電子ペンのうち任意の電子ペンを示す場合には「電子ペン4」と示す。複数のUSBメモリのうち任意のUSBメモリを示す場合には「USBメモリ5」と示す。複数の外部装置のうち任意の外部装置を示す場合には「外部装置6」と示す。複数のテレビ会議端末のうち任意のテレビ会議端末を示す場合には「テレビ会議端末7」と示す。また、複数のユーザの手のうち任意の手を示す場合には「手H」と示す。複数のケーブルのうち任意のケーブルを示す場合には「ケーブル10」と示す。
In addition, hereinafter, when an
また、本実施形態では、情報処理装置の一例として、表示装置2を説明するが、これに限るものではなく、情報処理装置の他の例として、電子看板(デジタルサイネージ)、スポーツや天気予報等で利用されるテレストレータ、又は、遠隔画像(映像)診断装置等であってもよい。また、外部装置6の一例としてノートPCが挙げられるが、外部装置6としては、デスクトップ型PCやタブレット型PC、スマートフォン、PDA(Personal Digital Assistant)、デジタルビデオカメラ、デジタルカメラ、ゲーム機等の画像フレームを供給可能な端末であってもよい。なお、これら情報処理装置では表示装置2用の所定のアプリケーション(プログラム)が動作しており、アプリケーションがタッチパネルに対する接触位置に基づいて手書きデータを表示する。
In addition, in the present embodiment, the
更に、通信ネットワークNには、インターネット、LAN(Local Area Network)、携帯電話通信網等が含まれる。また、本実施形態では、記録媒体の一例として、USBメモリを説明するが、これに限るものではなく、記録媒体の他の例として、SDカード(登録商標)等の各種記録メディアであってもよい。 Furthermore, the communication network N includes the Internet, a LAN (Local Area Network), a mobile phone communication network, and the like. Further, in this embodiment, a USB memory is described as an example of a recording medium, but it is not limited to this. good.
<表示装置のハードウェア構成>
図4は、表示装置のハードウェア構成図の一例である。図4では表示装置2として電子黒板を想定して説明する。図4に示されているように、表示装置2は、CPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203、SSD(Solid State Drive)204、ネットワークI/F205、及び、外部機器接続I/F(Interface)206を備えている。
<Hardware Configuration of Display Device>
FIG. 4 is an example of a hardware configuration diagram of a display device. In FIG. 4, the
これらのうち、CPU201は、表示装置2全体の動作を制御する。ROM202は、CPU201やIPL(Initial Program Loader)等のCPU201の駆動に用いられるプログラムを記憶する。RAM203は、CPU201のワークエリアとして使用される。SSD204は、電子黒板用のプログラム等の各種データを記憶する。ネットワークI/F205は、通信ネットワークNとの通信を制御する。外部機器接続I/F206は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、例えば、USB(Universal Serial Bus)メモリ230、外付け機器(マイク240、スピーカ250、カメラ260)である。
Among these, the
また、表示装置2は、キャプチャデバイス211、GPU212、ディスプレイ3コントローラ213、接触センサ214、センサコントローラ215、電子ペンコントローラ216、近距離通信回路219、及び近距離通信回路219のアンテナ219a、電源スイッチ222、選択スイッチ類223、及び、カメラ224を備えている。
The
これらのうち、キャプチャデバイス211は、外付けのPC(Personal Computer))270のディスプレイ3に対して映像情報を静止画又は動画として表示させる。GPU(Graphics Processing Unit)212は、グラフィクスを専門に扱う半導体チップである。ディスプレイ3コントローラ213は、GPU212からの出力画像をディスプレイ3等へ出力するために画面表示の制御及び管理を行う。接触センサ214は、ディスプレイ3上に電子ペン290やユーザの手H等が接触したことを検知する。センサコントローラ215は、接触センサ214の処理を制御する。接触センサ214は、赤外線遮断方式による座標の入力及び座標の検出を行う。この座標の入力及び座標の検出する方法は、ディスプレイ3の上側両端部に設置された2つ受発光装置が、ディスプレイ3に平行して複数の赤外線を放射し、ディスプレイ3の周囲に設けられた反射部材によって反射されて、受光素子が放射した光の光路と同一の光路上を戻って来る光を受光する方法である。接触センサ214は、物体によって遮断された2つの受発光装置が放射した赤外線のIDをセンサコントローラ215に出力し、センサコントローラ215が、物体の接触位置である座標位置を特定する。電子ペンコントローラ216は、電子ペン290と通信することで、ディスプレイ3へのペン先のタッチやペン尻のタッチの有無を判断する。近距離通信回路219は、NFC(Near Field Communication)やBluetooth(登録商標)等の通信回路である。電源スイッチ222は、表示装置2の電源のON/OFFを切り換えるためのスイッチである。選択スイッチ類223は、例えば、ディスプレイ3の表示の明暗や色合い等を調整するためのスイッチ群である。
Among these devices, the
カメラ224はディスプレイ3の例えばベゼルに内蔵されている撮像装置であり、表示装置2の前方を撮像する。カメラ224があればカメラ260のように外付け型のカメラはなくてもよい。
A
更に、表示装置2は、バスライン210を備えている。バスライン210は、図4に示されているCPU201等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。
Furthermore, the
なお、接触センサ214は、赤外線遮断方式に限らず、静電容量の変化を検知することにより接触位置を特定する静電容量方式のタッチパネル、対向する2つの抵抗膜の電圧変化によって接触位置を特定する抵抗膜方式のタッチパネル、接触物体が表示部に接触することによって生じる電磁誘導を検知して接触位置を特定する電磁誘導方式のタッチパネルなどの種々の検出手段を用いてもよい。また、電子ペンコントローラ216が、電子ペン290のペン先及びペン尻だけでなく、電子ペン290のユーザが握る部分や、その他の電子ペンの部分のタッチの有無を判断するようにしてもよい。
In addition, the
<表示装置の機能構成>
続いて、図5、図6を用いて、表示装置2の機能構成について説明する。図5は、表示装置2の機能をブロック状に分けて説明する機能ブロック図であり、図6は各画像レイヤの構成図の一例である。
<Functional Configuration of Display Device>
Next, the functional configuration of the
表示装置2は、図4に示されているハードウェア構成及びプログラムによって、図5に示されている各機能構成を有する。表示装置2は、最初に遠隔共有処理を開始する「主催装置」となり得ると共に、既に開始されている遠隔共有処理に後から参加する「参加装置」にもなり得る。また、表示装置2は、大きく分けて、クライアント部20及びサーバ部90の両方によって構成されている。
The
クライアント部20及びサーバ部90は、表示装置2の1台の筐体内で実現される機能である。そして、表示装置2が主催装置となる場合には、この表示装置2では、クライアント部20とサーバ部90が実現される。また、表示装置2が参加装置となる場合には、この表示装置2では、クライアント部20は実現されるが、サーバ部90は実現されない。即ち、図3において、表示装置2aが主催装置で、表示装置2bが参加装置となる場合、表示装置2aのクライアント部20は、同じ表示装置2a内に実現されたサーバ部90を介して、他の表示装置2bのクライアント部20と通信を行う。一方、表示装置2bのクライアント部20は、他の表示装置2a内に実現されたサーバ部90を介して、他の表示装置2aのクライアント部と通信を行う。
The
〔クライアント部の機能構成〕
続いて、主に図5、図6を用いて、クライアント部20の機能構成について説明する。クライアント部20は、映像取得部21、座標検知部22、自動調整部23、接触検知部24、イベント振分部25、操作処理部26、ジェスチャ処理部27、映像重畳部28、画像処理部30、及び通信制御部60を有する。
[Functional configuration of the client part]
Next, the functional configuration of the
このうち、映像取得部21は、ケーブル10に接続された外部装置6の出力画像を取得する。映像取得部21は、外部装置6から映像を受信すると、この映像を解析して、この映像によって形成される外部装置6の表示画像である画像フレームの解像度や、この画像フレームの更新頻度などの画像情報を導出し、画像取得部31に出力する。
Of these, the
座標検知部22は、ディスプレイ3上でユーザが入力手段を接触させた座標位置を検出する。ユーザがディスプレイ3上で入力手段を連続的に移動させた軌跡が手書きデータである。また、この手書きデータをストロークという場合がある。なお、入力手段は電子ペン4又はユーザの手Hのどちらでもよい。また、座標検知部22は、タッチされた面積も検出する。
The coordinate
自動調整部23は、表示装置2の起動時(再起動時と表現してもよい)に起動され、座標検知部22が適切な値を出力できるように、光センサ方式により座標を検知する座標検知部22がセンサーカメラの画像を処理する際のパラメータを調整する。
The
接触検知部24は、ユーザによって生じたイベント(ディスプレイ3上に電子ペン4のペン先又は電子ペン4のペン尻が押下(タッチ)された動作等)を検出する。
The
イベント振分部25は、座標検知部22によって検知されたイベントの座標位置と接触検知部24によって検出された検出結果を、手書きデータ描画、UI操作、及びジェスチャ操作の各イベントに振り分ける。ここで、「手書きデータ描画」は、ディスプレイ3上に図6に示されている後述の手書きデータ画像(B)が表示されている場合に、ユーザがディスプレイ3上で電子ペン4を押下し、この押下した状態で電子ペン4を移動させ、最終的にディスプレイ3上から電子ペン4を離すまでのイベントである。この手書きデータ描画により、例えば、アルファベット「S」や「T」等がディスプレイ3上に描画される。なお、この「手書きデータ描画」には、画像を描画するだけでなく、既に描画された画像を削除したり、描画された画像を編集したりするイベントも含まれる。
The
「UI操作」は、ディスプレイ3上に図6に示されている後述のUI画像(A)が表示されている場合に、ユーザが電子ペン4又は手Hによって所定の位置を押下したイベントである。このUI操作により、例えば、電子ペン4により描画される線の色や幅等が設定される。
"UI operation" is an event in which the user presses a predetermined position with the electronic pen 4 or hand H when a UI image (A) shown in FIG. 6, which will be described later, is displayed on the
「ジェスチャ操作」は、ディスプレイ3上に図6に示されている後述の手書きデータ画像(B)が表示されている場合に、ユーザが手Hでディスプレイ3上をタッチしたり移動させたりするイベントである。このジェスチャ操作により、例えば、ユーザがディスプレイ3に手Hをタッチさせた状態で手Hを移動させることで、画像の拡大(若しくは縮小)、表示領域の変更、又は、ページ切り換え等を行うことができる。
"Gesture operation" is an event in which the user touches or moves the hand H on the
操作処理部26は、イベント振分部25によってUI操作と判断されたものから、イベントが発生されたUIの要素にしたがって、各種操作を実行する。このUIの要素としては、例えば、ボタン、リスト、チェックボックス、テキストボックスが挙げられる。ジェスチャ処理部27は、イベント振分部25によってジェスチャ操作と判断されたものに対応した操作を実行する。
The
映像重畳部28は、後述の表示処理部36で重畳された画像を映像として表示部29に対して表示する。表示部29はディスプレイ3により実現される表示機能を示す。また、映像重畳部28は、外部装置6等からの映像に対して、テレビ会議端末7等から送られて来た映像をピクチャーインピクチャーする。更に、映像重畳部28は、ピクチャーインピクチャーされて表示部29の一部に表示された映像を、表示部29の全体に表示させるための切り替えを行う。
The
画像処理部30は、図6に示されているような各画像レイヤの重畳処理等を行う。この画像処理部30は、画像取得部31、手書きデータ処理部32、メニュー画面生成部33、画像生成部34、レイアウト管理部35、表示処理部36、ページ処理部37、ファイル処理部40、ページデータ記憶部300、及び遠隔ライセンス管理テーブル310を有している。
The
このうち、画像取得部31は、映像取得部21で取得された映像から、各フレームを画像として取得する。画像取得部31は、この画像のデータを、ページ処理部37に出力する。この画像は、図6に示されている外部装置6等からの入力画像(C)に相当する。本実施形態では入力画像(C)を映像と称している。
Of these, the
手書きデータ処理部32は、イベント振分部25によって割り振られた手書きデータ描画に係るイベントに基づいて、画像(手書きデータ)を描画したり、描画された画像を削除したり、描画された画像を編集する。この手書きデータ描画による画像は、図6に示されている手書きデータ画像(B)に相当する。また、この手書きデータ描画に基づいた画像の描画、削除、編集の各結果は、後述の操作データとして、データ管理部80に記憶される。
The handwritten
メニュー画面生成部33は、表示装置2に予め設定されているUI画像(A)(ユーザインターフェース画像)を生成する。このUI画像(A)は、図6に示されているUI画像(A)に相当する。
The menu
画像生成部34は、ページ処理部37がページデータ記憶部300(表1~表4参照)から読み出したページデータのうちのメディアデータを、ページ処理部37から受信する。画像生成部34は、この受信したメディアデータを表示処理部36に出力する。また、このメディアデータによる画像は、図6に示されている背景画像(D)に相当する。背景画像(D)のパターンは、無地、グリッド表示等である。
The
レイアウト管理部35は、表示処理部36に対して、画像取得部31、手書きデータ処理部32、及びメニュー画面生成部33(又は画像生成部34)から出力された各画像のレイアウトを示すレイアウト情報を管理している。これにより、レイアウト管理部35は、表示処理部36に対して、入力画像(C)及び手書きデータ画像(B)を、UI画像(A)及び背景画像(D)中のどの位置に表示させるか又は非表示にさせるかを指示することができる。
The
表示処理部36は、レイアウト管理部35から出力されたレイアウト情報に基づき、画像取得部31、手書きデータ処理部32、メニュー画面生成部33、及び画像生成部34から出力された各画像のレイアウトを行う。
Based on the layout information output from the
ページ処理部37は、手書きデータ画像(B)のデータと入力画像(C)のデータを、1つのページデータにまとめてページデータ記憶部300に記憶する。手書きデータ画像(B)のデータは、手書き配列データ(各手書きデータ)としてページデータの一部を成す。入力画像(C)のデータは、メディアデータとしてページデータの一部を成す。そして、このメディアデータは、ページデータ記憶部300から読み出されると、背景画像(D)のデータとして取り扱われる。
The
また、ページ処理部37は、一旦記憶されたページデータのうちのメディアデータを、画像生成部34を介して表示処理部36に送信することで、映像重畳部28が背景画像(D)をディスプレイ3に再表示させることができる。また、ページ処理部37は、ページデータのうちの手書き配列データ(各手書きデータ)を、手書きデータ処理部32に戻すことで、手書きデータの再編集ができる状態にすることができる。更に、ページ処理部37は、ページデータを削除したり複製したりすることもできる。
Further, the
即ち、ページ処理部37がページデータ記憶部300にページデータを記憶する時点でディスプレイ3上に表示されている入力画像(C)のデータは、一旦、ページデータ記憶部300に記憶され、その後にページデータ記憶部300から読み出される際には、背景画像(D)を示すメディアデータとして読みされる。そして、ページ処理部37は、ページデータ記憶部300から読み出したページデータのうち、手書きデータ画像(B)を示す手書き配列データを、手書きデータ処理部32に出力する。また、ページ処理部37は、ページデータ記憶部300から読み出したページデータのうち、背景画像(D)を示すメディアデータを、画像生成部34に出力する。
That is, the data of the input image (C) displayed on the
表示処理部36は、画像取得部31からの入力画像(C)、手書きデータ処理部32からの手書きデータ画像(B)、メニュー画面生成部33からのUI画像(A)、及び、画像生成部34からの背景画像(D)を、レイアウト管理部35によって指定されたレイアウトにしたがって重畳する。これにより、図6に示されているように、各画像が重なってもユーザが見える順に、UI画像(A)、手書きデータ画像(B)、入力画像(C)、及び背景画像(D)の各レイヤの構成となっている。
The
また、表示処理部36は、図6に示されている入力画像(C)と背景画像(D)を切り替えて、UI画像(A)及び手書き画像(B)に対して排他的に重畳することも可能である。例えば、当初、UI画像(A)、手書き画像(B)及び入力画像(C)が表示されている状態で、表示装置2と外部装置6等との間のケーブル10が抜かれた場合には、レイアウト管理部35の指定によって、入力画像(C)を重畳対象から外し、背景画像(D)を表示させることができる。この場合に、また、表示処理部36は、表示の拡大、表示の縮小、表示領域の移動処理も行う。
Further, the
ファイル処理部40は、ファイルの入力と出力に関する処理を行う。ファイル処理部40は、USBメモリ5等の記憶装置から画像データを読み込み、各ページをページデータとしてページデータ記憶部300に記憶する。また、ファイル処理部40は、ページデータ記憶部300に記憶されているページデータを、PDF形式のファイルに変換して、USBメモリ5等の記憶装置に記憶させる。この他、PDFファイルを電子メールに添付して送信する。
The
〔サーバ部の機能構成〕
サーバ部90は、各表示装置2に設けられており、いずれの表示装置2であっても、サーバ部としての役割を果たすことができる。そのため、サーバ部90は、通信制御部70、及びデータ管理部80を有している。
[Functional configuration of the server part]
The
通信制御部70は、同じ表示装置2内のクライアント部20における通信制御部70、及び通信ネットワークNを介して他の表示装置2内のクライアント部20における通信制御部70との通信を制御する。データ管理部80は、操作データや画像データ等を管理する。
The
ページデータは、表1に示されているように、任意の1ページを識別するためのページデータID、このページの表示を開始した時刻を示す開始時刻、手書きやジェスチャ等によるページの内容の書き換えが行われなくなった時刻を示す終了時刻、電子ペン4やユーザの手Hによる手書きによって生じた手書き配列データを識別するための手書き配列データID、及びメディアデータを識別するためのメディアデータIDが関連付けて記憶されている。手書き配列データは、図6に示されている手書きデータ画像(B)がディスプレイ3上に表示されるためのデータである。メディアデータは、背景画像(D)がディスプレイ3上に表示されるためのデータである。
The page data, as shown in Table 1, includes a page data ID for identifying an arbitrary page, a start time indicating the time when the display of this page was started, and rewriting of the content of the page by handwriting, gestures, or the like. end time indicating the time at which the is no longer performed, a handwritten array data ID for identifying handwritten array data generated by handwriting with the electronic pen 4 or the user's hand H, and a media data ID for identifying media data. are stored. The handwritten arrangement data is data for displaying the handwritten data image (B) shown in FIG. Media data is data for displaying the background image (D) on the
このようなページデータにより、例えば、ユーザが電子ペン4によってアルファベット「S」を描く場合は一筆書きとなるため、手書きデータIDが1つで一文字のアルファベット[S]が示される。ところが、ユーザが電子ペン4によってアルファベット「T」を描く場合、二筆書きとなるため、手書きデータIDが2つで一文字のアルファベット「T」が示されることになる。 With such page data, for example, when the user draws the alphabet "S" with the electronic pen 4, it is written in one stroke, so one handwritten data ID indicates one alphabet [S]. However, when the user draws the alphabet "T" with the electronic pen 4, it is written in two strokes, so two handwritten data IDs indicate one alphabet "T".
<第二アプリの第二画像の保存に関する表示装置の機能>
続いて、図7、図8を参照して、第二アプリの画像の保存に関する表示装置2の機能について説明する。
<Functions of the display device related to saving the second image of the second application>
Next, with reference to FIGS. 7 and 8, functions of the
図7は、ソフトウェア構成の一例を示す図である。表示装置2には、1つの第一アプリ102と1つ以上の第二アプリ103がインストールされている。図7に示されているように、第一アプリ102と第二アプリ103はOS101上で動作する。OS101は、表示装置2のハードウェア又はソフトウェアを第一アプリ102又は第二アプリ103が利用するためのAPI(アプリケーションインタフェース)を提供する、表示装置2を管理する基本ソフトウェアである。OS101は、例えばWindows(登録商標)、UNIX(登録商標)、LINUX(登録商標)、MAC OS(登録商標)、Andoroid(登録商標)、iOS(登録商標)などでよい。
FIG. 7 is a diagram showing an example of a software configuration. One
第一アプリ102は、上記のように、表示装置2の主要な機能を提供するアプリであり、手書きデータの表示及び保存などを行う。
The
第二アプリ103は、第一アプリ102と共に使用される可能性があるアプリであればよい。本実施形態では、第二画像11が保存されるので、バックグラウンドでのみ動作するアプリでなく何らかのUI(第二画面8)を表示するアプリであることが想定される。例えば、テレビ電話用のアプリ、ファイルビューワアプリ、スケジュールビューワアプリ、又は、ブラウザアプリなどである。なお、第二アプリ103は少なくとも1つあればよい。
The
また、第二アプリ103は第一アプリ102と連携する連携アプリであると更によい。連携アプリとは、第一アプリ102を使用する時にはユーザが使用する頻度が高いアプリをいい、ユーザにより予め登録されている。第一アプリ102は起動すると連携アプリも起動させることができる。
Moreover, it is more preferable that the
なお、ソフトウェア(正確にはコンピュータソフトウェアという)とは、コンピュータの動作に関するプログラム、その他コンピュータによる処理の用に供する情報であってプログラムに準ずるものをいう。アプリケーションソフトとは、ソフトウェアの分類のうち、特定の作業を行うために使用されるソフトウェアの総称である。一方、オペレーティングシステム(OS)とは、コンピュータを制御し、アプリケーションソフトなどがコンピュータ資源を利用可能にするためのソフトウェアのことである。「OS」と略されることが多い。 Software (more precisely, computer software) refers to programs related to computer operations and other information used for processing by a computer, which conforms to programs. Application software is a general term for software used to perform a specific task among software classifications. On the other hand, an operating system (OS) is software that controls a computer and enables application software and the like to use computer resources. It is often abbreviated as "OS".
オペレーティングシステムは、入出力の制御、メモリやハードディスクなどのハードウェアの管理、プロセスの管理といった、コンピュータの基本的な管理・制御を行っている。アプリケーションソフトウェアは、オペレーティングシステムが提供する機能を利用して動作する。 The operating system performs basic management and control of the computer, such as control of input/output, management of hardware such as memory and hard disk, and management of processes. Application software operates using functions provided by the operating system.
プログラムとは、コンピュータに対する指令であって、一の結果を得ることができるように組み合わせたものをいう。また、プログラムに準ずるものとは、コンピュータに対する直接の指令ではないためプログラムとは呼べないが、コンピュータの処理を規定するという点でプログラムに類似する性質を有するものをいう。例えば、データ構造(データ要素間の相互関係で表される、データの有する論理的構造)がプログラムに準ずるものに該当する。 A program is a set of instructions for a computer that are combined to produce a result. Also, what conforms to a program refers to something that cannot be called a program because it is not a direct command to a computer, but has properties similar to a program in that it defines the processing of the computer. For example, a data structure (a logical structure of data represented by interrelationships between data elements) corresponds to a program.
上記各プログラムは、インストール可能な形式又は実行可能な形式のファイルで、コンピュータで読み取り可能な記録媒体に記録して流通させるようにしてもよい。記録媒体の例として、CD-R(Compact Disc Recordable)、DVD(Digital Versatile Disk)、ブルーレイディスク、SDカード等が挙げられる。また、記録媒体は、プログラム製品(Program Product)として、国内又は国外へ提供されることができる。 Each of the above programs may be recorded in a computer-readable recording medium in an installable or executable format and distributed. Examples of recording media include CD-Rs (Compact Disc Recordable), DVDs (Digital Versatile Disks), Blu-ray discs, SD cards, and the like. Also, the recording medium can be provided domestically or internationally as a program product.
図8は、第二画像11の保存に関する表示装置2の機能をブロックに分けて示す機能ブロック図の一例である。図8の表示装置2は、図5に示した機能から第二画像11の保存に関する一部の機能を抽出して示す。
FIG. 8 is an example of a functional block diagram showing functions of the
操作処理部26はユーザがUI画像(A)に対し行った第一画面9の保存操作を受け付ける。本実施形態では、第一画面9の保存操作には第二画面8の保存操作をも含まれるものとする。第一画面9のみの保存操作が可能でもよいし、第二画面8のみの保存操作が可能でもよい。操作内容は画像取得部31、画像生成部34及び手書きデータ処理部32に通知される。また、操作処理部26はディスプレイ3に表示された第二画像11に対する編集も受け付ける。
The
ディスプレイ3には入力画像(C)又は背景画像(D)が表示された状態で、手書きデータ画像(B)とUI画像(A)が表示されている。保存の対象となるのは、手書きデータ画像(B)、入力画像(C)及び背景画像(D)である。ただし、入力画像(C)と背景画像(D)は同時に表示されないので、取得される画像は、
・入力画像(C)のみ
・背景画像(D)のみ
・手書きデータ画像(B)と入力画像(C)
・手書きデータ画像(B)と背景画像(D)
である。また、背景画像(D)は表示装置2の機能としては取得できなくてもよい。
A handwritten data image (B) and a UI image (A) are displayed on the
・Input image (C) only ・Background image (D) only ・Handwritten data image (B) and input image (C)
・Handwritten data image (B) and background image (D)
is. Also, the background image (D) may not be acquired as a function of the
これらはいずれも第一アプリ102が生成する画像であり、第一画像12に相当する。本実施形態では、更に、第二アプリ103が生成する第二画面8が第一画面9に重ねて表示されている場合が想定されている。
All of these are images generated by the
全体画像取得部51は第一画面9に表示されている第一画像12と、第二画面8に表示されている第二画像11を取得する。上記のように、第一画面9には、手書きデータ画像(B)と、入力画像(C)又は背景画像(D)が含まれる。従来、手書きデータ画像(B)と入力画像(C)又は背景画像(D)はPDFデータなどの画像データに保存されていたが、本実施形態では入力画像(C)又は背景画像(D)はPDFなどの画像データとして保存されるが、手書きデータは座標データとして保存されたままでよい。
The whole
画像取得部31は、入力画像取得部52と第二画像取得部53を有している。入力画像取得部52は、操作処理部26が保存操作を受け付けた時にディスプレイ3(第一画面9)に表示していた入力画像(C)を保存する。ただし、入力画像(C)が入力されていない場合は保存しない。
The
第二画像取得部53は、現在、ディスプレイ3に表示されている第二アプリ103が生成する第二画面8の第二画像11を保存する。第二アプリ103は予め登録アプリ記憶部54に登録されている。第二アプリ103はウィンドウと呼ばれる矩形領域に第二画面8を表示するので、この矩形領域内の画像が第二画像11である。第二画像11の保存の詳細は後述する。
The second
図8に戻って、画像生成部34は背景画像取得部56を有している。背景画像取得部56は、操作処理部26が保存操作を受け付けた時にディスプレイ3(第一画面9)に表示していた背景画像(D)を保存する。ただし、入力画像(C)が入力されている場合は背景画像(D)を保存しない(ユーザの目に背景画像(D)が触れていないため)。
Returning to FIG. 8 , the
手書きデータ処理部32は、上記のように、手書きデータをリアルタイムにページデータ記憶部300に記録しているため、操作処理部26が保存操作を受け付けた時に別途、手書きデータを保存しなくてよい。手書きデータ処理部32は、操作処理部26が保存操作を受け付けた時、ページ処理部37を介して1ページ分の手書きデータを取得する。第二画像11と共に手書きデータ画像(B)を表示するためである。
Since the handwritten
ページ処理部37は、背景画像取得部56により取得された背景画像(D)又は入力画像取得部52により取得された入力画像、及び、第二画像取得部53により取得された第二画像11をページごとに対応づけて画像データ記憶部55に保存する。画像データ記憶部55に記憶されている画像データの一例を表6に示す。
The
また、ページ処理部37は、画像データ記憶部55に記憶された入力画像(C)又は背景画像(D)を画像生成部34に送出し、手書きデータと第二画像11を手書きデータ処理部32に送出する。画像生成部34は入力画像(C)又は背景画像(D)を表示処理部36に送出し、手書きデータ処理部32は手書きデータを手書きデータ画像(B)に変換して第二画像11を配置して、表示処理部36に送出する。これにより、表示処理部36は、入力画像(C)又は背景画像(D)、第二画像11、及び、手書きデータ画像(B)を重ねて表示できる。
Further, the
第二画像1~nは、第二アプリ103がウィンドウ内に表示していた第二画面8の第二画像11である。第二アプリ103が起動していない場合は第二画像11も保存されない。
The
<保存された第二画像の表示について>
表示装置2は、図6に示した上記4つのレイヤ(UI画像(A)、手書きデータ画像(B)、入力画像(C)、背景画像(D))をディスプレイ3に表示するので、第二画像11はこのいずれかのレイヤに配置される。これにより、レイヤを増やす必要がなく、メモリを節約できる。本実施形態では、一例として、表示装置2は手書きデータ画像(B)に第二画像11を配置するものとして説明する。ただし、UI画像(A)、入力画像(C)、又は背景画像(D)に配置してもよい。
<About the display of the saved second image>
The
図9は、手書きデータ画像における第二画像11の配置を説明する図である。図9(a)は第二画像11が表示されない場合を示し、図9(b)は第二画像11が表示される場合を示す。 FIG. 9 is a diagram illustrating the arrangement of the second image 11 in the handwritten data image. 9A shows the case where the second image 11 is not displayed, and FIG. 9B shows the case where the second image 11 is displayed.
図9(a)に示すように、手書きデータ画像(B)には、例えば「AB」という文字が手書きされている。この場合、手書きデータ画像(B)(手書きレイヤ)には、「AB」という文字を構成する手書きデータ110が描画される。 As shown in FIG. 9A, for example, characters "AB" are handwritten in the handwritten data image (B). In this case, the handwritten data image (B) (handwritten layer) is drawn with the handwritten data 110 forming the characters "AB".
これに対し、図9(b)に示すように、第一画面9に重なって表示されていた第二画面8の第二画像11が保存された場合、手書きデータ処理部32は手書きデータ画像(B)(手書きレイヤ)に第二画像11A、11Bを配置する。
On the other hand, as shown in FIG. 9B, when the second image 11 of the
このように、手書きデータ画像(B)には座標データが配置され、第二画像11が表示部品として配置される。ユーザは後から座標データを追加したり削除したりしても、手書きデータ画像(B)に反映できる。表示部品も手書きデータ画像(B)とは一体でないので、手書きデータ画像(B)とは別に編集可能である。したがって、第二画像11が配置された手書きデータ画像(B)に対し、ユーザが第二画像11を編集できる。 In this way, coordinate data is arranged in the handwritten data image (B), and the second image 11 is arranged as a display component. Even if the user adds or deletes coordinate data later, it can be reflected in the handwritten data image (B). Since the display component is also not integrated with the handwritten data image (B), it can be edited separately from the handwritten data image (B). Therefore, the user can edit the second image 11 for the handwritten data image (B) in which the second image 11 is arranged.
<第二画像の取り込み方法>
第二画像取得部53が第二画像11を取得するためには、第二画像11の位置やサイズなどの第二アプリ103に関する情報が必要になる。第二画像取得部53はOS101が提供する関数やコマンドを利用して第二アプリ103に関する情報を取得する。本実施形態では一例としてOS101がWindows(登録商標)の場合を説明する。
<How to capture the second image>
In order for the second
図10はOS101が提供する関数の一例である。図10(a)はGetProcessesByName()という関数の引数と戻り値を示す。GetProcessesByName()関数により、第二画像取得部53はアプリ名(図10(a)ではファイル名)からアプリの後述するプロセスIDを取得できる。第二画像取得部53は、登録アプリ記憶部54に記憶されているアプリを順番に読み出してGetProcessesByName()関数を実行し、各アプリのプロセスIDを取得する。
FIG. 10 shows an example of functions provided by the
プロセスとは、コンピュータでプログラムなどを動作させる際、CPUが実行するひとまとまりの処理の単位である。 A process is a unit of processing executed by a CPU when a program or the like is run on a computer.
アプリが起動すると、OS101はこのアプリを識別するためのプロセスIDを発行する。プロセスIDは、OS101が現在実行されているプロセスを識別するための、プロセスごとに一意な識別子である。Windows(登録商標)やUNIX系OS(登録商標)などで利用され、符号なし整数値などが使用されることが多い。1つのプログラムが複数のプロセスを実行している場合には、それぞれのプロセスごとに値が割り当てられる。また、同じプログラムを複数起動した場合にも、それぞれを区別するために異なる値が割り当てられる。
When an application starts, the
Windows(登録商標)では、自身のプロセスIDは GetCurrentProcessId() という関数で取得し、他のプロセスのプロセスIDは GetProcessId() という関数で取得する。内部的にはプロセスIDを client ID と呼び、thread ID と同じ名前空間から割り当てられるので、両者は決してオーバーラップしない。いわゆるシステムアイドルプロセスのプロセスIDは0で、システムプロセスのプロセスIDは4が割り当てられる。 In Windows (registered trademark), the own process ID is obtained by the function GetCurrentProcessId(), and the process IDs of other processes are obtained by the function GetProcessId(). Internally, the process ID is called the client ID and is assigned from the same namespace as the thread ID, so the two never overlap. A process ID of 0 is assigned to the so-called system idle process, and a process ID of 4 is assigned to the system process.
Unix系OS(登録商標)では、自身のプロセスIDは getpid() システムコールで得られ、シェルでは $$ という変数で得られる。親プロセスのプロセスIDは getpid() システムコールで得られる。 In Unix-based OS (registered trademark), the own process ID is obtained by the getpid() system call, and in the shell it is obtained by the variable $$. The process ID of the parent process can be obtained with the getpid() system call.
図10(b)は、GetWindowThreadProcessId()という関数の引数と戻り値を示す。GetWindowThreadProcessId()関数はウィンドウハンドルからこのウィンドウを生成したプロセスIDを取得する関数である。ウィンドウハンドルとはWindows(登録商標)において、ウィンドウごとに付与される識別子である。アプリがOS101の機能を利用してウィンドウを制御するにはこのウィンドウハンドルを指定する。
FIG. 10(b) shows the argument and return value of the GetWindowThreadProcessId() function. The GetWindowThreadProcessId( ) function is a function that obtains the process ID that generated this window from the window handle. A window handle is an identifier assigned to each window in Windows (registered trademark). This window handle is specified when an application uses the functions of the
第二画像取得部53がGetWindowThreadProcessId()関数を実行する段階ではウィンドウハンドルは不明である。このため、第二画像取得部53は表示装置2が実行する全てのアプリのウィンドウハンドルを取得する。まず、GetTopWindow()関数によって、最もトップレベル(デスクトップ)から数えて一番上の子ウィンドウハンドルを取得する。このウィンドウからGetNextWindow()関数で、次のウィンドウハンドルを辿っていく。これにより全てのウィンドウハンドルを取得できる。
The window handle is unknown when the second
このようにして取得したウィンドウハンドルを指定してGetWindowThreadProcessId()関数を実行すると、第二画像取得部53はウィンドウ(ディスプレイ3に表示されているウィンドウ)を生成したアプリのプロセスIDを取得できる。第二画像取得部53は、GetWindowThreadProcessId()関数で取得したプロセスIDが、GetProcessesByName()関数で取得したプロセスIDと一致する場合、第二アプリ103のウィンドウハンドルを特定できたと判断する(GetWindowThreadProcessId()関数で指定したウィンドウハンドルが第二アプリ103のウィンドウハンドルであったことが分かる)。
When the GetWindowThreadProcessId() function is executed specifying the window handle obtained in this way, the second
図10(c)はGetWindowInfo()という関数の引数と戻り値を示す。GetWindowInfo()関数はウィンドウハンドルからウィンドウに関する情報を取得する関数である。GetWindowInfo()関数の実行でWINDOWINFOという戻り値が得られる。WINDOWINFOのrcClient メンバにクライアントの矩形領域(矩形領域の対角頂点の座標)が取得される。クライアントとはウィンドウの枠を除いた領域(第二画像のみの部分)である。 FIG. 10(c) shows the argument and return value of the GetWindowInfo() function. The GetWindowInfo() function is a function that gets information about a window from a window handle. Execution of the GetWindowInfo() function gives a return value of WINDOWINFO. The client's rectangular area (the coordinates of the diagonal vertices of the rectangular area) is obtained in the rcClient member of WINDOWINFO. The client is the area excluding the frame of the window (part containing only the second image).
以上のようにして、ウィンドウ内の第二画像11の表示位置と表示サイズを特定できるので、第二画像取得部53はディスプレイ3に表示されるデータを保持するビデオメモリにおいて、第二画像11の位置とサイズを指定して、各アプリが生成する第二画像11をビデオメモリから取得できる。
As described above, since the display position and display size of the second image 11 within the window can be identified, the second
<登録アプリ記憶部に登録されるアプリの登録方法>
図11は、アプリ登録画面130の一例を示す。アプリ登録画面130は、ユーザが登録アプリ記憶部54に、第一アプリ102と連携する第二アプリ103を登録するための画面である。
<Method of registering an application to be registered in the registered application memory>
FIG. 11 shows an example of the
アプリ登録画面130は、表示装置2が表示してもよいし、表示装置2とネットワークを介して通信するPCなどの端末装置が表示してもよい。端末装置ではWebブラウザが動作しており、表示装置2がサーバとしてアプリ登録画面130の画面情報を端末装置に送信する。
The
アプリ登録画面130は、「実行ファイル一覧を表示」ボタン131、一覧表示欄132、及び、登録ボタン133を有している。ユーザが「実行ファイル一覧を表示」ボタン131を押下すると、表示装置2が表示装置2のフォルダから実行ファイル(拡張子がexeのファイル)を検索して、一覧表示欄132に表示する。この場合、連携アプリがインストールされるフォルダが決まっているとよい。表示装置2は決まったフォルダのみを検索することで、連携アプリのみを検索できる。ユーザは一覧表示欄132でアプリのファイル名を選択し、登録ボタン133を押下する。これにより、登録アプリ記憶部54にアプリが登録される。
The
また、アプリ登録画面130は、アプリ名入力欄134、検索ボタン135、検索結果表示欄136、及び、登録ボタン137を有している。ユーザが登録するアプリ名を知っている場合、ユーザはアプリ名入力欄134にアプリ名の一部又は全部を入力して検索ボタン135を押下する。表示装置2は、アプリ名でフォルダを検索して、検索結果を検索結果表示欄136に表示する。所望のアプリが検索結果表示欄136に表示された場合、ユーザはアプリのファイル名を選択し、登録ボタン137を押下する。これにより、登録アプリ記憶部54にアプリが登録される。
The
<動作手順>
図12は、表示装置2が第一画像12を生成する手順を示すフローチャート図の一例である。図12の処理は、ユーザがUI画像(A)に対し第一画面9の保存操作を行うとスタートする。
<Operation procedure>
FIG. 12 is an example of a flow chart diagram showing a procedure for the
入力画像取得部52は入力画像(C)を取得して画像データ記憶部55に記憶する(S1)。背景画像取得部56が背景画像(D)を保存してもよい。また、第二画像取得部53は各アプリの第二画像11を取得して画像データ記憶部55に記憶する(S2)。ステップS2の処理の詳細は図13にて説明する。これらにより、画像データ記憶部55には、入力画像(C)と各第二アプリ103の第二画像11が記憶された。なお、ステップS1とS2の処理順は逆でもよい。
The input
次に、ページ処理部37は、入力画像(C)を画像生成部34に送出し、手書きデータと第二画像11を手書きデータ処理部32に送出する。手書きデータ処理部32は手書きデータを手書きデータ画像(B)に変換して、第二画像11の生成時に取得した位置(表7)に基づいて、各第二画像11を手書きデータ画像(B)に配置する。つまり、第二画面と同じ位置に第二画像11を配置する。
Next, the
手書きデータ処理部32は第二画像11が配置された手書きデータ画像(B)を表示処理部36に送出し、画像生成部34は入力画像(C)を表示処理部36に送出する。これらにより、表示処理部36は入力画像(C)と第二画像11が配置された手書きデータ画像(B)とを重ねてディスプレイ3に表示する(S3)。
The handwritten
図13は、図12のステップS2の処理の手順を示すフローチャート図である。第二画像取得部53は、登録アプリ記憶部54に登録されているアプリ名を読み出す(S11)。
FIG. 13 is a flow chart showing the procedure of the processing in step S2 of FIG. The second
次に、第二画像取得部53は図10で説明した各種の関数を使用して、第二アプリ103の表示位置と表示サイズを取得する(S12)。
Next, the second
第二画像取得部53は、表示位置と表示サイズが分かった第二アプリ103の第二画像11を画像データ記憶部55に記憶する(S13)。第二画像11を個別に記憶するのでなく、第一画面9(デスクトップ画面)の全体の第一画像12を生成し、第二アプリ103の表示位置と表示サイズに基づいて第二画像11を切り取って保存してもよい。
The second
第二画像取得部53は、登録アプリ記憶部54に登録されている全ての第二アプリ103について図13の処理を行う。手書きデータ処理部32は全ての第二画像11を手書きデータ画像(B)に配置する。
The second
<第二画像の編集例>
図14は、2つの第二画像11が配置された手書きデータ画像(B)の一例である。図14(a)は第一画像12(例えば、入力画像(C)と手書きデータ画像)が生成された直後の手書きデータ画像(B)であり、第二アプリ103が表示した第二画面8と同じ位置に第二画像11が表示されている。
<Example of editing the second image>
FIG. 14 is an example of a handwritten data image (B) in which two second images 11 are arranged. FIG. 14A shows the handwritten data image (B) immediately after the first image 12 (for example, the input image (C) and the handwritten data image) is generated. A second image 11 is displayed at the same position.
ユーザは第一画像12を固定したまま、第二画像11Aを削除し、第二画像11Bを縮小した。この状態の第一画像12を図14(b)に示す。本実施形態では、このように、ユーザが第二画像11を削除したり縮小したりできる。
The user deleted the
また、ユーザが図14(a)の状態から、第一画像12を固定したまま、第二画像11Aと11Bを移動した。この状態の第一画像12を図14(c)に示す。本実施形態では、このように、ユーザが第二画像11を移動することができる。
Further, the user moves the
また、ユーザが図14(c)の状態から、第一画像12を固定したまま、第二画像11Aを拡大した。この状態の第一画像12を図14(d)に示す。本実施形態では、このように、ユーザが第二画像11を拡大することができる。
Further, the user enlarges the
<第二アプリの表示位置と表示サイズの別の取得例>
本実施形態では、登録アプリ記憶部54に予め第二アプリ103が登録されていると説明したが、第二アプリ103は登録されていなくてもよい。この場合、第一アプリ102以外のウィンドウを表示する第二アプリ103が生成する第二画面8を第二画像取得部53が全て取り込むことで第二画像11を生成できる。
<Another example of acquiring the display position and display size of the second application>
Although the
この場合、第二画像取得部53は例えば上記のGetTopWindow()関数とGetNextWindow()関数で起動中のウィンドウハンドルを取得する。ウィンドウハンドルを取得できたので、第二画像取得部53はGetWindowInfo()関数を実行して第二アプリ103の表示位置と表示サイズを取得できる。表示サイズがゼロでない第二アプリ103があれば、第二画像取得部53は第二画像11を生成する。
In this case, the second
図15は、登録アプリ記憶部54に予め第二アプリ103が登録されていない場合の、図12のステップS2の処理の手順を示すフローチャート図である。
FIG. 15 is a flowchart showing the procedure of the processing in step S2 of FIG. 12 when the
第二画像取得部53は起動している全てのアプリのウィンドウハンドルを取得する(S21)。次に、第二アプリ103の表示位置と表示サイズを取得する(S22)。
The second
第二画像取得部53は、第二アプリ103の表示サイズがゼロでないかどうかを判断する(S23)。
Second
第二アプリ103の表示サイズがゼロでない場合、第二画像取得部53は、第二アプリ103の表示位置と表示サイズが分かった第二アプリ103の第二画像11を取得して画像データ記憶部55に記憶する(S24)。
When the display size of the
第二画像取得部53は、起動中の全ての第二アプリ103について図15の処理を行う。手書きデータ処理部32は全ての第二画像11を手書きデータ画像(B)に配置する。
The second
<<登録アプリ記憶部に記憶されているアプリの絞り込み>>
あるいは、登録アプリ記憶部54に第二アプリ103が登録されていることを利用してアプリを絞り込むこともできる。
<< Narrowing down the applications stored in the registered application memory >>
Alternatively, applications can be narrowed down by utilizing the fact that the
図16は、登録アプリ記憶部54に登録されている第二アプリ103を利用した、図12のステップS2の処理の手順を示すフローチャート図である。
FIG. 16 is a flow chart showing the procedure of the process of step S2 in FIG. 12 using the
まず、第二画像取得部53は、起動しているアプリ名を全て取得する(S31)。例えば、windows(登録商標)の場合tasklistというコマンドを実行すると、現在、起動しているアプリの実行ファイル (.exe) の一覧が得られる。
First, the second
第二画像取得部53はtasklistで見つかった実行ファイルが登録アプリ記憶部54に登録されているか否かを判断する(S32)。
The second
登録アプリ記憶部54に登録されているアプリが見つかった場合、第二画像取得部53は第二アプリ103の表示位置と表示サイズを取得する(S33)。
When the application registered in the registered
第二画像取得部53は、第二アプリ103の表示位置と表示サイズが分かった第二アプリ103の第二画像11を取得して画像データ記憶部55に記憶する(S34)。
The second
第二画像取得部53は、起動中の全ての第二アプリ103について図16の処理を行う。手書きデータ処理部32は全ての第二画像11を手書きデータ画像(B)に配置する。
The second
このように、第二画像取得部53は種々の方法で起動中の第二アプリ103を特定し、第二画像11を生成できる。
In this manner, the second
<アプリ名の別の取得方法>
EnumWindows(EnumWindowCallback, 0)を使用してもよい。第一アプリ102は、EnumWindows(EnumWindowCallback, 0)を呼び出すことで存在するトップレベルのウィンドウハンドルごとにEnumWindowCallbackを呼び出す。これにより、存在するウィンドウハンドルの数だけEnumWindowCallback(HWND handle, LPARAM lparam)が呼び出されるので、第一アプリ102はCallback関数内でGetWindowThreadProcessId()をつかってhandleごとのプロセスIDを取得する。更にこのCallback関数内で取得したプロセスIDごとにGetModuleBasename()を使ってプロセスIDごとのプロセス名も取得することができる。このようにEnumWinodwsを使用することで全ウィンドウハンドルごとにプロセスIDやプロセス名を取得して、アプリ名の一致の判断ができる。
<Another way to get the app name>
You may also use EnumWindows(EnumWindowCallback, 0). The
<まとめ>
以上説明したように、本実施形態の表示装置は、第二画面8を第一画像12とは別に第二画像11として保存するので、第一画像12と第二画像11A、11Bを独立した画像とすることができる。また、第二画像11を手書きデータ画像(B)に配置するので、レイヤを増やす必要がなく、手書きデータと同様に第二画像11を移動したり縮小したりするなどの編集が可能になる。
<Summary>
As described above, the display device of the present embodiment saves the
本実施例では画像を投影することで表示する表示装置について説明する。 In this embodiment, a display device that displays an image by projecting it will be described.
<<表示装置の構成の別の例1>>
本実施形態の表示装置は大型のタッチパネルを有するものとして説明されているが、表示装置はタッチパネルを有するものに限られない。
<<Another example 1 of the configuration of the display device>>
Although the display device of this embodiment is described as having a large touch panel, the display device is not limited to having a touch panel.
図17は、表示装置の他の構成例を示す図である。図17では、通常のホワイトボード413の上辺にプロジェクター411が設置されている。このプロジェクター411が表示装置に相当する。通常のホワイトボード413とは、タッチパネルと一体のフラットパネルディスプレイではなく、ユーザがマーカーで直接、手書きするホワイトボードである。なお、ホワイトボードは黒板でもよく、映像を投影するだけの広さの平面であればよい。 FIG. 17 is a diagram showing another configuration example of the display device. In FIG. 17, a projector 411 is installed on the upper side of a normal whiteboard 413 . This projector 411 corresponds to a display device. The normal whiteboard 413 is not a flat panel display integrated with a touch panel, but a whiteboard on which the user directly writes with a marker. Note that the whiteboard may be a blackboard, and may be a flat surface that is large enough to project an image.
プロジェクター411は超短焦点の光学系を有しており、10cm程度から歪みの少ない映像をホワイトボード413に投影できる。この映像は、無線又は有線で接続されたPC400ー1から送信されてもよいし、プロジェクター411が記憶していてもよい。 The projector 411 has an ultra-short focal length optical system, and can project an image with little distortion on the whiteboard 413 from about 10 cm. This image may be transmitted from the PC 400 - 1 connected wirelessly or by wire, or may be stored in the projector 411 .
ユーザは専用の電子ペン2501を使ってホワイトボード413に手書きする。電子ペン2501は、ユーザが手書きのためにホワイトボード413に押しつけるとスイッチがONになり発光する発光部を例えば先端部に有している。光の波長は近赤外や赤外なのでユーザの目には見えない。プロジェクター411はカメラを有しており、発光部を撮像して画像を解析し電子ペン2501の方向を特定する。また、電子ペン2501は発光と共に音波を発信しており、プロジェクター411は音波の到達時間により距離を算出する。方向と距離により電子ペン2501の位置を特定できる。電子ペン2501の位置には手書きデータが描画(投影)される。 The user writes by hand on the whiteboard 413 using the dedicated electronic pen 2501 . The electronic pen 2501 has a light-emitting portion, for example, at its tip, which is turned on when the user presses it against the whiteboard 413 for handwriting. Since the wavelength of light is in the near infrared or infrared, it is invisible to the user's eyes. The projector 411 has a camera, captures an image of the light emitting unit, analyzes the image, and identifies the direction of the electronic pen 2501 . Also, the electronic pen 2501 emits light and emits sound waves, and the projector 411 calculates the distance based on the arrival time of the sound waves. The position of the electronic pen 2501 can be identified by the direction and distance. Handwritten data is drawn (projected) at the position of the electronic pen 2501 .
プロジェクター411はメニュー430を投影するので、ユーザが電子ペン2501でボタンを押下すると、プロジェクター411が電子ペン2501の位置とスイッチのON信号により押下されたボタンを特定する。例えば、保存ボタン431が押下されると、ユーザが手書きしたデータ(座標の集合)がプロジェクター411で保存される。プロジェクター411は、予め定められたサーバ412又はUSBメモリ5等に手書き情報を保存する。手書き情報はページごとに保存されている。画像データではなく座標のまま保存されるので、ユーザが再編集することができる。ただし、本実施形態では操作コマンドを手書きで呼び出せるのでメニュー430は表示されなくてもよい。
Since the projector 411 projects the menu 430, when the user presses a button with the electronic pen 2501, the projector 411 identifies the pressed button based on the position of the electronic pen 2501 and the ON signal of the switch. For example, when the save button 431 is pressed, the data (set of coordinates) handwritten by the user is saved in the projector 411 . The projector 411 stores the handwritten information in a predetermined server 412,
<<表示装置の構成の別の例2>>
図18は、表示装置の他の構成例を示す図である。図18の例では、表示装置として、端末装置600、画像投影装置700A、及び、ペン動作検出装置810を有する。
<<Another example 2 of the configuration of the display device>>
FIG. 18 is a diagram showing another configuration example of the display device. In the example of FIG. 18, a
端末装置600は、画像投影装置700A及びペン動作検出装置810と有線で接続されている。画像投影装置700Aは、端末装置600により入力された画像データをスクリーン800に投影させる。
The
ペン動作検出装置810は、電子ペン820と通信を行っており、スクリーン800の近傍における電子ペン820の動作を検出する。具体的には、電子ペン820は、スクリーン800上において、電子ペン820が示している点を示す座標情報を検出し、端末装置600へ送信する。
The pen
端末装置600は、ペン動作検出装置810から受信した座標情報に基づき、電子ペン820によって入力される手書きデータ画像(B)の画像データを生成し、画像投影装置700Aによって手書きデータ画像(B)をスクリーン800に描画させる。
また、端末装置600は、画像投影装置700Aに投影させている背景画像(D)と、電子ペン820によって入力された手書きデータ画像(B)とを合成した重畳画像を示す重畳画像データを生成する。
In addition, the
<<表示装置の構成の別の例3>>
図19は、表示装置の構成例を示す図である。図19の例では、表示装置として、端末装置600とディスプレイ800Aと、ペン動作検出装置810とを有する。
<<Another example 3 of the configuration of the display device>>
FIG. 19 is a diagram illustrating a configuration example of a display device. In the example of FIG. 19, a
ペン動作検出装置810は、ディスプレイ800Aの近傍に配置され、ディスプレイ800A上に、電子ペン820Aが示している点を示す座標情報を検出し、端末装置600へ送信する。なお、図19の例では、電子ペン820Aは、端末装置600によってUSBコネクタを介して充電されても良い。
Pen
端末装置600は、ペン動作検出装置810から受信した座標情報に基づき、電子ペン820Aによって入力される手書きデータ画像(B)の画像データを生成し、ディスプレイ800Aに表示させる。
<<表示装置の構成の別の例4>>
図20は、表示装置の構成例を示す図である。図20の例では、表示装置として、端末装置600と、画像投影装置700Aとを有する。
<<Another example 4 of the configuration of the display device>>
FIG. 20 is a diagram illustrating a configuration example of a display device. In the example of FIG. 20, a
端末装置600は、電子ペン820Bと無線通信(Bluetooth(登録商標)等)を行って、スクリーン800上において電子ペン820Bが示す点の座標情報を受信する。そして、端末装置600は、受信した座標情報に基づき、電子ペン820Bにより入力される手書きデータ画像(B)の画像データを生成し、画像投影装置700Aに手書きデータ画像(B)を投影させる。
また、端末装置600は、画像投影装置700Aに投影させている背景画像(D)と、電子ペン820によって入力された手書きデータ画像(B)とを合成した重畳画像を示す重畳画像データを生成する。
In addition, the
以上のように、上記した各実施形態は、様々なシステム構成において適用することができる。 As described above, each of the above-described embodiments can be applied in various system configurations.
<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
Although the best mode for carrying out the present invention has been described above using examples, the present invention is by no means limited to such examples, and various modifications can be made without departing from the scope of the present invention. and substitutions can be added.
例えば、本実施形態では、電子黒板として使用できる表示装置を説明したが、表示装置は画像を表示できればよく、例えばデジタルサイネージなどでもよい。 For example, in the present embodiment, a display device that can be used as an electronic blackboard has been described, but the display device may be any display device that can display images, such as digital signage.
また、表示する画像は動画でも静止画でもよい。 Moreover, the image to be displayed may be a moving image or a still image.
また、本実施形態では電子黒板を一例として説明したが、タッチパネルを有する情報処理装置であれば好適に適用できる。タッチパネルを搭載した情報処理装置としては、例えば、PJ(Projector:プロジェクター)、デジタルサイネージ等の出力装置、HUD(Head Up Display)装置、産業機械、撮像装置、集音装置、医療機器、ネットワーク家電、ノートPC(Personal Computer)、携帯電話、スマートフォン、タブレット端末、ゲーム機、PDA(Personal Digital Assistant)、デジタルカメラ、ウェアラブルPC又はデスクトップPC等であってもよい。 Further, although the electronic blackboard has been described as an example in the present embodiment, any information processing apparatus having a touch panel can be suitably applied. Examples of information processing devices equipped with a touch panel include PJs (projectors), output devices such as digital signage, HUD (Head Up Display) devices, industrial machines, imaging devices, sound collectors, medical equipment, network appliances, A notebook PC (Personal Computer), a mobile phone, a smart phone, a tablet terminal, a game machine, a PDA (Personal Digital Assistant), a digital camera, a wearable PC, a desktop PC, or the like may be used.
また、本実施形態ではペン先の座標をタッチパネルで検知する方法でペンの座標を検出したが、ペン先の座標を超音波により検出してもよい。ペンは発光と共に超音波を発信しており、表示装置2は超音波の到達時間により距離を算出する。方向と距離によりペンの位置を特定できる。ペンの軌跡を手書きデータとしてプロジェクターが描画(投影)する。
Further, in the present embodiment, the coordinates of the pen tip are detected by the method of detecting the coordinates of the pen tip with the touch panel, but the coordinates of the pen tip may be detected by ultrasonic waves. The pen emits light and emits ultrasonic waves, and the
また、図6,図8などの構成例は、表示装置2による処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。表示装置2の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。
6 and 8 are divided according to main functions in order to facilitate understanding of the processing by the
また、上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。 Also, each function of the embodiments described above can be realized by one or more processing circuits. Here, the "processing circuit" in this specification means a processor programmed by software to perform each function, such as a processor implemented by an electronic circuit, or a processor designed to perform each function described above. devices such as ASICs (Application Specific Integrated Circuits), DSPs (digital signal processors), FPGAs (field programmable gate arrays) and conventional circuit modules.
1 画像処理システム
2 表示装置
3 ディスプレイ
1
Claims (8)
前記第一画面に表示されている第一画像を取得する全体画像取得部と、
前記第二画面に表示されている第二画像を取得する第二画像取得部と、
前記第一画像に重ねて前記第二画像を表示する表示処理部と、
前記第二画像への編集を受け付ける操作処理部と、
ペン又は手による手書きデータを手書きデータ画像に変換する手書きデータ処理部と、を有し、
前記第一画面には、前記手書きデータ画像と外部から入力された入力画像が重ねて表示されており、
前記第一画像を取得する操作が入力された場合、
入力画像取得部が前記入力画像を取得し、前記第二画像取得部が前記第二画像を取得し、
前記手書きデータ処理部は、前記手書きデータ画像に前記第二画像を配置し、
前記表示処理部は、前記第二画像が配置された前記手書きデータ画像と前記入力画像を重ねて表示することを特徴とする表示装置。 A display device for displaying a second screen generated by a second application superimposed on a first screen generated by a first application,
a whole image acquisition unit that acquires the first image displayed on the first screen;
a second image acquisition unit that acquires a second image displayed on the second screen;
a display processing unit that displays the second image superimposed on the first image;
an operation processing unit that receives edits to the second image;
a handwritten data processing unit that converts handwritten data with a pen or hand into a handwritten data image;
The handwritten data image and the input image input from the outside are superimposed and displayed on the first screen,
When an operation to acquire the first image is input,
an input image acquiring unit acquires the input image, the second image acquiring unit acquires the second image,
The handwritten data processing unit arranges the second image in the handwritten data image,
The display device, wherein the display processing unit displays the handwritten data image in which the second image is arranged and the input image in an overlapping manner .
前記表示処理部は、前記第一画面における前記第二画面の同じ位置に前記第二画像を表示することを特徴とする請求項1に記載の表示装置。 The second image acquisition unit acquires the position of the second screen in the first screen,
2. The display device according to claim 1, wherein the display processing unit displays the second image on the same position of the second screen on the first screen.
前記表示装置で起動しているアプリのプロセスIDと一致するプロセスIDを有する前記第二アプリのウィンドウハンドルに基づいて、前記第二アプリが生成する前記第二画面の表示位置をOSから取得し、
取得した表示位置から前記第二画像を取得することを特徴とする請求項1~3のいずれか1項に記載の表示装置。 The second image acquisition unit acquires a process ID of an application name of the second application registered in advance from the OS,
acquiring from the OS the display position of the second screen generated by the second application based on the window handle of the second application having a process ID that matches the process ID of the application running on the display device;
4. The display device according to any one of claims 1 to 3, wherein the second image is acquired from the acquired display position.
前記ウィンドウハンドルを有するウィンドウの表示位置と表示サイズをOSから取得し、
前記表示サイズがゼロでない前記ウィンドウハンドルのアプリが前記第二アプリであると特定し、
OSから取得した前記第二アプリの表示位置から前記第二画像を取得することを特徴とする請求項1~3のいずれか1項に記載の表示装置。 The second image acquisition unit acquires window handles of all applications running on the display device from the OS,
obtaining from the OS the display position and display size of the window having the window handle;
identifying that the app with the window handle whose display size is not zero is the second app;
4. The display device according to any one of claims 1 to 3, wherein the second image is acquired from the display position of the second application acquired from an OS.
OSから取得した前記アプリ名が、予め登録されている前記第二アプリのアプリ名と一致する場合、
前記アプリ名のアプリの表示位置をOSから取得し、
前記表示位置から前記第二画像を取得することを特徴とする請求項1~3のいずれか1項に記載の表示装置。 The second image acquisition unit acquires application names of all applications running on the display device from the OS,
When the application name obtained from the OS matches the application name of the pre-registered second application,
Acquiring the display position of the application with the application name from the OS,
4. The display device according to claim 1, wherein said second image is obtained from said display position.
全体画像取得部が、前記第一画面に表示されている第一画像を取得するステップと、
第二画像取得部が、前記第二画面に表示されている第二画像を取得するステップと、
表示処理部が、前記第一画像に重ねて前記第二画像を表示するステップと、
操作処理部が、前記第二画像への編集を受け付けるステップと、
手書きデータ処理部が、ペン又は手による手書きデータを手書きデータ画像に変換するステップと、を有し、
前記第一画面には、前記手書きデータ画像と外部から入力された入力画像が重ねて表示されており、
前記第一画像を取得する操作が入力された場合、
入力画像取得部が前記入力画像を取得し、前記第二画像取得部が前記第二画像を取得し、
前記手書きデータ処理部は、前記手書きデータ画像に前記第二画像を配置し、
前記表示処理部は、前記第二画像が配置された前記手書きデータ画像と前記入力画像を重ねて表示することを特徴とする画像表示方法。 An image display method performed by a display device that displays a second screen generated by a second application superimposed on a first screen generated by a first application, comprising:
a step of obtaining a first image displayed on the first screen by an overall image obtaining unit;
a second image acquisition unit acquiring a second image displayed on the second screen;
a display processing unit displaying the second image superimposed on the first image;
an operation processing unit accepting an edit to the second image;
a handwriting data processor converting pen or hand handwriting data into a handwriting data image;
The handwritten data image and the input image input from the outside are superimposed and displayed on the first screen,
When an operation to acquire the first image is input,
an input image acquiring unit acquires the input image, the second image acquiring unit acquires the second image,
The handwritten data processing unit arranges the second image in the handwritten data image,
The image display method , wherein the display processing unit superimposes and displays the handwritten data image in which the second image is arranged and the input image .
前記第一画面に表示されている第一画像を取得する全体画像取得部と、
前記第二画面に表示されている第二画像を取得する第二画像取得部と、
前記第一画像に重ねて前記第二画像を表示する表示処理部と、
前記第二画像への編集を受け付ける操作処理部と、
ペン又は手による手書きデータを手書きデータ画像に変換する手書きデータ処理部、として機能させ、
前記第一画面には、前記手書きデータ画像と外部から入力された入力画像が重ねて表示されており、
前記第一画像を取得する操作が入力された場合、
入力画像取得部が前記入力画像を取得し、前記第二画像取得部が前記第二画像を取得し、
前記手書きデータ処理部は、前記手書きデータ画像に前記第二画像を配置し、
前記表示処理部は、前記第二画像が配置された前記手書きデータ画像と前記入力画像を重ねて表示するためのプログラム。 A display device that displays a second screen generated by a second application superimposed on a first screen generated by a first application,
a whole image acquisition unit that acquires the first image displayed on the first screen;
a second image acquisition unit that acquires a second image displayed on the second screen;
a display processing unit that displays the second image superimposed on the first image;
an operation processing unit that receives edits to the second image;
Function as a handwritten data processing unit that converts handwritten data by pen or hand into a handwritten data image ,
The handwritten data image and the input image input from the outside are superimposed and displayed on the first screen,
When an operation to acquire the first image is input,
an input image acquiring unit acquires the input image, the second image acquiring unit acquires the second image,
The handwritten data processing unit arranges the second image in the handwritten data image,
The display processing unit is a program for displaying the handwritten data image in which the second image is arranged and the input image in an overlapping manner .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019172088A JP7331578B2 (en) | 2019-09-20 | 2019-09-20 | Display device, image display method, program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019172088A JP7331578B2 (en) | 2019-09-20 | 2019-09-20 | Display device, image display method, program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021051359A JP2021051359A (en) | 2021-04-01 |
JP7331578B2 true JP7331578B2 (en) | 2023-08-23 |
Family
ID=75157865
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019172088A Active JP7331578B2 (en) | 2019-09-20 | 2019-09-20 | Display device, image display method, program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7331578B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008250700A (en) | 2007-03-30 | 2008-10-16 | Canon Inc | Information processor, window reproduction method and program |
JP2017091297A (en) | 2015-11-12 | 2017-05-25 | Kddi株式会社 | Screen transition specification device, screen transition specification system, and screen transition specification method |
-
2019
- 2019-09-20 JP JP2019172088A patent/JP7331578B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008250700A (en) | 2007-03-30 | 2008-10-16 | Canon Inc | Information processor, window reproduction method and program |
JP2017091297A (en) | 2015-11-12 | 2017-05-25 | Kddi株式会社 | Screen transition specification device, screen transition specification system, and screen transition specification method |
Also Published As
Publication number | Publication date |
---|---|
JP2021051359A (en) | 2021-04-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9479693B2 (en) | Method and mobile terminal apparatus for displaying specialized visual guides for photography | |
US9324305B2 (en) | Method of synthesizing images photographed by portable terminal, machine-readable storage medium, and portable terminal | |
JP7042622B2 (en) | Image processing device, image processing system, image processing method, and program | |
US20180082663A1 (en) | Information processing apparatus, image displaying method, and non-transitory computer readable medium | |
JP6035971B2 (en) | Information processing apparatus, program, and image processing system | |
US20170212906A1 (en) | Interacting with user interfacr elements representing files | |
US10469274B2 (en) | Live ink presence for real-time collaboration | |
JP2019159261A (en) | Electronic blackboard, picture display method, and program | |
JP2016038728A (en) | Image display device, control method of image display device and program thereof | |
JP2017211494A (en) | Image processing apparatus, image processing system, image processing method, and program | |
US10921977B2 (en) | Information processing apparatus and information processing method | |
WO2018109876A1 (en) | Display device, electronic blackboard system, and user interface setting method | |
JP7331578B2 (en) | Display device, image display method, program | |
JP6773977B2 (en) | Terminal device and operation control program | |
US11221760B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP7338330B2 (en) | Display device, display method, program | |
JP2019219965A (en) | Shared terminal, writing method, and program | |
JP7435184B2 (en) | Communication device, communication device control method, and program | |
JP2022087633A (en) | Display device, erasing method switching method, and program | |
JP7342501B2 (en) | Display device, display method, program | |
JP7287156B2 (en) | Display device, display method, program | |
US20230333731A1 (en) | Display apparatus, display system, display method, and non-transitory recording medium | |
JP7279425B2 (en) | DISPLAY DEVICE, DISPLAY SYSTEM, OPERATING MODE CONTROL METHOD, AND PROGRAM | |
US11816327B2 (en) | Display apparatus, method for displaying, and non-transitory recording medium | |
JP7306190B2 (en) | Display device, display method, program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220721 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230327 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230418 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230609 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230711 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230724 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7331578 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |