JP2021051256A - Display unit, display method, and program - Google Patents

Display unit, display method, and program Download PDF

Info

Publication number
JP2021051256A
JP2021051256A JP2019175488A JP2019175488A JP2021051256A JP 2021051256 A JP2021051256 A JP 2021051256A JP 2019175488 A JP2019175488 A JP 2019175488A JP 2019175488 A JP2019175488 A JP 2019175488A JP 2021051256 A JP2021051256 A JP 2021051256A
Authority
JP
Japan
Prior art keywords
image
display
color
display device
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019175488A
Other languages
Japanese (ja)
Other versions
JP7306190B2 (en
Inventor
佳彦 下平
Yoshihiko Shimodaira
佳彦 下平
文彦 皆川
Fumihiko Minagawa
文彦 皆川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2019175488A priority Critical patent/JP7306190B2/en
Publication of JP2021051256A publication Critical patent/JP2021051256A/en
Application granted granted Critical
Publication of JP7306190B2 publication Critical patent/JP7306190B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide a display unit that can make clearer the boundary between an image and a display area.SOLUTION: A display unit 2 displays an acquired image, and comprises: a color determination unit 53 that, when the aspect ratio of the image and the aspect ratio of a display area where the image is displayed are different, determines the color of a margin generated when the image is displayed in the display area according to the colors used in the image; and an image creation unit 34 that displays the image in the display area and displays the margin with the color determined by the color determination unit.SELECTED DRAWING: Figure 3

Description

本発明は、表示装置、表示方法、及びプログラムに関する。 The present invention relates to display devices, display methods, and programs.

液晶や有機ELなどのディスプレイ又はプロジェクター等で情報を表示する表示装置が知られている。例えばタッチパネルにユーザがペンや指で手書きしたデータを表示する表示装置や、通行人などに広告などを表示する表示装置などがある。 A display device that displays information on a display such as a liquid crystal or an organic EL or a projector or the like is known. For example, there are a display device that displays data handwritten by a user with a pen or a finger on a touch panel, and a display device that displays an advertisement or the like on a passerby.

これらの表示装置が有するディスプレイ又は表示領域のアスペクト比は表示装置によって様々であり、ディスプレイのアスペクト比に応じて画像を表示する技術が考案されている(例えば、特許文献1参照。)。特許文献1には、画像を出力する装置側が表示領域に応じて画像を生成する技術が開示されている。 The aspect ratio of the display or the display area of these display devices varies depending on the display device, and a technique for displaying an image according to the aspect ratio of the display has been devised (see, for example, Patent Document 1). Patent Document 1 discloses a technique in which an image output device side generates an image according to a display area.

しかしながら、従来の技術では、画像の表示領域と画像のアスペクト比が異なる場合に、画像と表示領域との境界が不明確になるという問題があった。例えば、画像の表示領域と画像のアスペクト比が異なる場合、画像の左右又は上下に生じる表示領域の余白を表示装置は均一色で塗りつぶして表示する場合がある。しかし、画像の色と画像外の余白の色が同じ場合、画像と余白の境界がわかりづらいため、ユーザが操作しにくかったり違和感を生じさせたりする場合があった。 However, in the conventional technique, there is a problem that the boundary between the image and the display area becomes unclear when the display area of the image and the aspect ratio of the image are different. For example, when the display area of the image and the aspect ratio of the image are different, the display device may fill the margins of the display area generated on the left, right, or top and bottom of the image with a uniform color for display. However, when the color of the image and the color of the margin outside the image are the same, the boundary between the image and the margin is difficult to understand, which may make it difficult for the user to operate or cause a sense of discomfort.

本発明は、上記課題に鑑み、画像と表示領域との境界をより明確にできる表示装置を提供することを目的とする。 In view of the above problems, an object of the present invention is to provide a display device capable of clarifying the boundary between an image and a display area.

上記課題に鑑み、本発明は、取得した画像を表示する表示装置であって、前記画像のアスペクト比と前記画像が表示される表示領域のアスペクト比が異なる場合、前記画像で使用されている色に応じて、前記画像を前記表示領域に表示した場合に生じる余白の色を決定する色決定部と、前記画像を前記表示領域に表示し、前記色決定部が決定した色で前記余白を表示する画像生成部と、を有することを特徴とする。 In view of the above problems, the present invention is a display device for displaying an acquired image, and when the aspect ratio of the image and the aspect ratio of the display area in which the image is displayed are different, the color used in the image is used. A color determination unit that determines the color of the margin generated when the image is displayed in the display area, and a color determination unit that displays the image in the display area and displays the margin in the color determined by the color determination unit. It is characterized by having an image generation unit to be used.

画像と表示領域との境界をより明確にできる表示装置を提供することができる。 It is possible to provide a display device that can make the boundary between an image and a display area clearer.

表示装置が画像を表示する場合の比較技術を説明する図である。It is a figure explaining the comparison technique when the display device displays an image. 画像と余白との境界がわかりづらい場合の不都合を説明する図である。It is a figure explaining the inconvenience when the boundary between an image and a margin is difficult to understand. ディスプレイとは異なるアスペクト比の画像を取得して表示装置が表示した場合の余白の表示例を示す図である。It is a figure which shows the display example of the margin when the display apparatus acquired the image of the aspect ratio different from the display. 本実施形態の画像処理システムの全体構成図の一例である。This is an example of an overall configuration diagram of the image processing system of the present embodiment. 表示装置のハードウェア構成図の一例である。This is an example of a hardware configuration diagram of a display device. 表示装置の機能ブロック図の一例である。This is an example of a functional block diagram of a display device. ファイル処理部の機能ブロック図の一例である。This is an example of a functional block diagram of the file processing unit. ページデータを示す概念図である。It is a conceptual diagram which shows page data. ストロークデータを示す概念図である。It is a conceptual diagram which shows stroke data. 座標配列データを示す概念図である。It is a conceptual diagram which shows the coordinate array data. メディアデータを示す概念図である。It is a conceptual diagram which shows the media data. 各画像レイヤの構成図の一例である。This is an example of a configuration diagram of each image layer. 表示装置が読み込む画像とディスプレイのアスペクト比に応じた余白の色の決定に関する表示装置の機能を示す機能ブロック図の一例である。This is an example of a functional block diagram showing the function of the display device regarding the determination of the margin color according to the aspect ratio of the image read by the display device and the display. ディスプレイ方向を説明する図の一例である。It is an example of the figure explaining the display direction. 画像と含まれる色について説明する図の一例である。It is an example of a figure explaining an image and a color included. 代表色をパレット状に示す図の一例である。This is an example of a diagram showing representative colors in a palette. 画像の縁部において使用されていない色を説明する図の一例である。It is an example of the figure explaining the color which is not used at the edge of an image. 画像の変倍を説明する図の一例である。It is an example of the figure explaining the scaling of an image. 余白の位置の決定方法を説明する図の一例である。It is an example of the figure explaining the method of determining the position of a margin. 表示装置が読み込む画像とディスプレイのアスペクト比に応じて表示領域の余白の色を決定する手順を示すフローチャート図の一例である。This is an example of a flowchart showing a procedure for determining the margin color of the display area according to the aspect ratio of the image read by the display device and the display. 代表色のうち各ページに共通に使用されていない色の決定方法を説明する図の一例である。This is an example of a diagram for explaining a method of determining a color that is not commonly used for each page among the representative colors. 複数ページの場合に、表示装置が読み込む画像とディスプレイのアスペクト比に応じて表示領域の余白の色を決定する手順を示すフローチャート図の一例である。This is an example of a flowchart showing a procedure for determining the margin color of the display area according to the aspect ratio of the image read by the display device and the display in the case of a plurality of pages. 画像生成部がストロークの座標に応じて小さくした余白を説明する図の一例である。This is an example of a diagram for explaining the margin reduced by the image generation unit according to the coordinates of the stroke. 余白のサイズの変更と画像の取り込み手順を示すフローチャート図の一例である。This is an example of a flowchart showing a procedure for changing the size of the margin and capturing an image. 表示装置の他の構成例を示す図である。It is a figure which shows the other configuration example of a display device. 表示装置の他の構成例を示す図である。It is a figure which shows the other configuration example of a display device. 表示装置の他の構成例を示す図である。It is a figure which shows the other configuration example of a display device. 表示装置の他の構成例を示す図である。It is a figure which shows the other configuration example of a display device.

以下、本発明を実施するための形態の一例として、表示装置及び表示装置が行う表示方法について図面を参照しながら説明する。 Hereinafter, as an example of the embodiment for carrying out the present invention, the display device and the display method performed by the display device will be described with reference to the drawings.

<比較技術について>
本実施形態の表示装置を説明するにあたり、好適な比較技術について説明する。
図1は、表示装置2が画像11を表示する場合の比較技術を説明する図である。まず、表示装置2には、縦長のディスプレイ3を搭載したもの(以下、縦型の表示装置2という)と、横長のディスプレイ3を搭載したもの(以下、横型の表示装置2という)がある。
<Comparison technology>
In explaining the display device of the present embodiment, a suitable comparison technique will be described.
FIG. 1 is a diagram illustrating a comparison technique when the display device 2 displays the image 11. First, the display device 2 includes a display device 2 having a vertically long display 3 (hereinafter referred to as a vertical display device 2) and a display device 2 having a horizontally long display 3 (hereinafter referred to as a horizontal display device 2).

図1(a)〜(c)では横型の表示装置2が縦長の画像11を表示する。図11(a)に示す画像11は例えばPDFファイルなど、表示装置2が取得したファイルに保存されている。図1ではディスプレイ3の全体が表示領域である。図1(b)に示すように、画像11とディスプレイ3のアスペクト比は異なっている。この場合、横型の表示装置2は、画像11の長い方の辺がディスプレイ3の縦方向の長さに一致するように画像11を変倍して表示する。 In FIGS. 1A to 1C, the horizontal display device 2 displays the vertically long image 11. The image 11 shown in FIG. 11A is stored in a file acquired by the display device 2, such as a PDF file. In FIG. 1, the entire display 3 is a display area. As shown in FIG. 1B, the aspect ratios of the image 11 and the display 3 are different. In this case, the horizontal display device 2 scales and displays the image 11 so that the longer side of the image 11 matches the vertical length of the display 3.

図1(c)には、ディスプレイ3の左右方向のほぼ中央に画像11が表示されている。しかし、画像11の背景とディスプレイの余白13(画像11を表示領域に表示した場合に生じる表示領域の残り)が共に白一色であるため、画像と余白13との境界がわかりづらい状態になっている。 In FIG. 1C, the image 11 is displayed substantially in the center of the display 3 in the left-right direction. However, since the background of the image 11 and the margin 13 of the display (the rest of the display area generated when the image 11 is displayed in the display area) are both all white, the boundary between the image and the margin 13 becomes difficult to understand. There is.

図1(d)〜(f)では縦型の表示装置2が横長の画像11を表示する。同様に、縦型の表示装置2は、画像11の長い方の辺がディスプレイ3の横方向の長さに一致するように画像11を変倍して表示する。 In FIGS. 1 (d) to 1 (f), the vertical display device 2 displays the horizontally long image 11. Similarly, the vertical display device 2 scales and displays the image 11 so that the longer side of the image 11 matches the lateral length of the display 3.

図1(f)には、ディスプレイ3の上下方向のほぼ中央に画像11が表示されている。しかし、画像11の背景とディスプレイの余白13が共に白一色であるため、画像と余白13との境界がわかりづらい状態になっている。 In FIG. 1 (f), the image 11 is displayed substantially in the center of the display 3 in the vertical direction. However, since the background of the image 11 and the margin 13 of the display are both all white, it is difficult to understand the boundary between the image and the margin 13.

図2は、画像11と余白13との境界がわかりづらい場合の不都合を説明する図である。まず、図2(a)に示すように、ユーザとしては自分が表示装置2に表示させた画像11がどのような形状(縦長か横長か)であったかが分かりにくいため、表示した画像11が、自分が表示させようとしたファイルであるかどうかを判断しにくい場合がある。 FIG. 2 is a diagram illustrating inconvenience when the boundary between the image 11 and the margin 13 is difficult to understand. First, as shown in FIG. 2A, since it is difficult for the user to understand what kind of shape (portrait or landscape) the image 11 displayed on the display device 2 was, the displayed image 11 is displayed. It may be difficult to determine if the file you are trying to view.

また、図2(b)に示すように、ユーザは表示装置2の機能として画像11に手書きデータを書き込むことができる。また、この書き込みを画像11と共に取り込む(保存する又はキャプチャする)こともできる。取り込みの際、表示装置2はディスプレイ3の全体を取り込む場合と、画像11の範囲だけを取り込む場合がある。図2(b)では画像11の範囲を超えてユーザが「ABC」という手書きデータ8を書き込んでいるが、表示装置2が画像11の範囲だけを取り込んだため、取り込み画像12では書き込んだ手書きデータの一部が保存されていない。 Further, as shown in FIG. 2B, the user can write handwritten data on the image 11 as a function of the display device 2. It is also possible to capture (save or capture) this writing together with the image 11. At the time of capture, the display device 2 may capture the entire display 3 or capture only the range of the image 11. In FIG. 2B, the user writes the handwritten data 8 called “ABC” beyond the range of the image 11, but since the display device 2 captures only the range of the image 11, the handwritten data written in the captured image 12 Some parts of are not saved.

このように、画像11と余白13との境界がわかりづらい場合、ユーザが書き込みを画像11の範囲で行うことが困難になるおそれがあった。 As described above, when the boundary between the image 11 and the margin 13 is difficult to understand, it may be difficult for the user to write in the range of the image 11.

<本実施例の表示装置の動作の概略>
そこで、本実施形態の表示装置2は、取得して表示する画像11とディスプレイ3のアスペクト比が異なる場合、余白13の色を画像11の色に応じて決定する。例えば、画像11で使用されていない色を余白13の色とする。
<Outline of operation of the display device of this embodiment>
Therefore, when the aspect ratios of the image 11 acquired and displayed and the display 3 are different, the display device 2 of the present embodiment determines the color of the margin 13 according to the color of the image 11. For example, a color not used in the image 11 is set as the color of the margin 13.

図3は、ディスプレイ3とは異なるアスペクト比の画像11を取得して表示装置2が表示した場合の余白13の表示例を示す。図3(a)は縦型の表示装置2の場合であり、図3(b)は横型の表示装置2の場合である。 FIG. 3 shows a display example of a margin 13 when an image 11 having an aspect ratio different from that of the display 3 is acquired and displayed by the display device 2. FIG. 3A shows the case of the vertical display device 2, and FIG. 3B shows the case of the horizontal display device 2.

図3(a)(b)に示すように、余白13が画像11で使用されていない色で表示されるため、ユーザは画像11とディスプレイの余白13の境界を容易に判別できる。 As shown in FIGS. 3A and 3B, since the margin 13 is displayed in a color not used in the image 11, the user can easily determine the boundary between the image 11 and the margin 13 of the display.

このように、本実施例の表示装置2は、余白13の色が画像11で使用されている色に応じて決定されているため、ユーザは画像11とディスプレイの余白13の境界を容易に判別できる。 As described above, in the display device 2 of the present embodiment, since the color of the margin 13 is determined according to the color used in the image 11, the user can easily determine the boundary between the image 11 and the margin 13 of the display. it can.

<用語について>
アスペクト比とは、画面や画像の縦と横の長さ(ピクセル数)の比である。縦横比ともいう。アスペクト比が異なる場合、相似でないともいえる。
<Terminology>
The aspect ratio is the ratio of the vertical and horizontal lengths (number of pixels) of a screen or image. Also called aspect ratio. If the aspect ratios are different, it can be said that they are not similar.

ディスプレイ方向が横向きとはアスペクト比が1より大きい場合を言い、ディスプレイ方向が縦向きとはアスペクト比が1より小さい場合を言う(アスペクト比が1の場合はどちらでもよい)。ただし、本実施形態では以下のように定義する。横W、縦Hとした場合、W:Hと表記し、
アスペクト比=W/H とする。
The horizontal orientation means that the aspect ratio is larger than 1, and the vertical orientation means that the aspect ratio is smaller than 1 (it does not matter if the aspect ratio is 1). However, in this embodiment, it is defined as follows. When horizontal W and vertical H, it is written as W: H.
Aspect ratio = W / H.

画像が表示される表示領域とは、ディスプレイのうち画像が表示される領域である。最大の表示領域はディスプレイ全体である。表示装置がディスプレイの一部になるのは、ディスプレイに形成されたウィンドウが表示領域となったり、用途に応じて矩形枠に区切られたりした場合である。 The display area on which the image is displayed is an area of the display on which the image is displayed. The largest display area is the entire display. The display device becomes a part of the display when the window formed on the display becomes a display area or is divided into rectangular frames according to the purpose.

表示位置とは、表示領域と画像11のアスペクト比が異なる場合、表示領域のどの位置に画像を表示するかの位置をいう。例えば、ディスプレイ3が横向きの場合、左右方向に任意性があり、ディスプレイが縦向きの場合、上下方向に任意性がある。 The display position refers to a position in the display area where the image is displayed when the aspect ratios of the display area and the image 11 are different. For example, when the display 3 is oriented horizontally, there is an arbitrary direction in the left-right direction, and when the display is oriented vertically, there is an option in the vertical direction.

手書きデータとは、ディスプレイ上でユーザが入力手段を連続的に移動させた座標点列を軌跡として表示したデータである。また、ユーザがディスプレイに入力手段を押しつけてから連続的に移動させた後、ディスプレイから離すという一連の操作をストロークといい、ストロークにより手書きされたデータをストロークデータという場合がある。手書きデータは1つ以上のストロークデータを有する。 The handwritten data is data in which a coordinate point sequence in which the user continuously moves the input means on the display is displayed as a locus. Further, a series of operations in which the user presses the input means on the display, moves the input means continuously, and then releases the input means from the display is called a stroke, and the data handwritten by the stroke may be called stroke data. The handwritten data has one or more stroke data.

<システムの概要>
図4は、本実施形態の画像処理システムの全体構成図である。なお、図4では、説明を簡略化するために、2台の表示装置2a,2b及びこれに付随する電子ペン4a,4b等を示しているだけであって、3台以上の表示装置や電子ペン等を利用してもよい。
<System overview>
FIG. 4 is an overall configuration diagram of the image processing system of the present embodiment. In addition, in FIG. 4, for simplification of the description, only two display devices 2a and 2b and the electronic pens 4a and 4b associated therewith are shown, and three or more display devices and electronic devices are shown. You may use a pen or the like.

図4に示されているように、画像処理システム1は、複数の表示装置2a,2b、複数の電子ペン4a,4b、USBメモリ5a,5b、ノートPC(Personal Computer)6a,6b、テレビ(ビデオ)会議端末7a,7b、及びPC8を有する。また、表示装置2a,2b、及びPC8は、通信ネットワーク9を介して通信可能に接続されている。更に、複数の表示装置2a,2bには、それぞれディスプレイ3a,3bが設けられている。 As shown in FIG. 4, the image processing system 1 includes a plurality of display devices 2a and 2b, a plurality of electronic pens 4a and 4b, a USB memory 5a and 5b, a notebook PC (Personal Computer) 6a and 6b, and a television (Personal Computer) 6a and 6b. Video) It has conference terminals 7a, 7b, and a PC8. Further, the display devices 2a and 2b and the PC 8 are connected so as to be able to communicate with each other via the communication network 9. Further, the plurality of display devices 2a and 2b are provided with displays 3a and 3b, respectively.

また、表示装置2aには、電子ペン4aによって生じたイベント(ディスプレイ3aに電子ペン4aのペン先、又は、電子ペン4aのペン尻のタッチ)による描画された画像を、ディスプレイ3aに表示させることができる。なお、電子ペン4aだけでなく、ユーザの指を含む手Ha等によって生じたイベント(拡大、縮小、ページめくり等のジェスチャ)に基づいて、ディスプレイ3a上に表示されている画像を変更させることもできる。 Further, the display device 2a causes the display 3a to display an image drawn by an event (touch of the pen tip of the electronic pen 4a or the pen tail of the electronic pen 4a on the display 3a) caused by the electronic pen 4a. Can be done. In addition to the electronic pen 4a, the image displayed on the display 3a can be changed based on an event (gestures such as enlargement, reduction, page turning, etc.) caused by a hand Ha including the user's finger. it can.

また、表示装置2aには、USBメモリ5aが接続可能であり、表示装置2aはUSBメモリ5aからPDF等の電子ファイルを読み出し、表示装置2aはUSBメモリ5aに電子ファイルを記録することができる。また、表示装置2aには、DisplayPort、DVI(Digital Visual Interface)、HDMI(登録商標。High−Definition Multimedia Interface)及びVGA(Video Graphics Array)等の規格による通信が可能なケーブル10a1を介して、ノートPC6aが接続されている。そして、表示装置2aは、ディスプレイ3aに対する接触によってイベントを発生させ、このイベントを示すイベント情報を、マウスやキーボード等の入力装置からのイベントと同様に、ノートPC6aに送信する。同じく、表示装置2aには、上記規格による通信が可能なケーブル10a2を介して、テレビ(ビデオ)会議端末7aが接続されている。なお、ノートPC6a、及びテレビ会議端末7aは、Bluetooth(登録商標)等の各種無線通信プロトコルに準拠した無線通信により、表示装置2aと通信してもよい。 Further, a USB memory 5a can be connected to the display device 2a, the display device 2a can read an electronic file such as a PDF from the USB memory 5a, and the display device 2a can record the electronic file in the USB memory 5a. Further, the display device 2a is connected to the display device 2a via a cable 10a1 capable of communicating according to standards such as DisplayPort, DVI (Digital Visual Interface), HDMI (registered trademark. High-Definition Multimedia Interface) and VGA (Video Graphics Array). PC6a is connected. Then, the display device 2a generates an event by touching the display 3a, and transmits the event information indicating the event to the notebook PC 6a in the same manner as the event from the input device such as a mouse or a keyboard. Similarly, a television (video) conference terminal 7a is connected to the display device 2a via a cable 10a2 capable of communicating according to the above standard. The notebook PC 6a and the video conferencing terminal 7a may communicate with the display device 2a by wireless communication compliant with various wireless communication protocols such as Bluetooth (registered trademark).

一方、表示装置2bが設置されている他の拠点では、上記と同様に、ディスプレイ3bを備えた表示装置2b、電子ペン4b、USBメモリ5b、ノートPC6b、テレビ会議端末7b、ケーブル10b1、ケーブル10b2が利用される。更に、ユーザの手Hb等によって生じたイベントに基づいて、ディスプレイ3b上に表示されている画像を変更させることもできる。 On the other hand, at other bases where the display device 2b is installed, similarly to the above, the display device 2b equipped with the display 3b, the electronic pen 4b, the USB memory 5b, the notebook PC 6b, the video conferencing terminal 7b, the cable 10b1, and the cable 10b2. Is used. Further, the image displayed on the display 3b can be changed based on the event generated by the user's hand Hb or the like.

これにより、一の拠点で表示装置2aのディスプレイ3a上に描画された画像は、他の拠点で表示装置2bのディスプレイ3b上にも表示され、逆に他の拠点で表示装置2bのディスプレイ3b上に描画された画像は、一の拠点で表示装置2aのディスプレイ3a上に表示される。このように、画像処理システム1では、遠隔地において同じ画像を共有する遠隔共有処理を行うことができるため、遠隔地での会議等に用いると、非常に便利である。 As a result, the image drawn on the display 3a of the display device 2a at one base is also displayed on the display 3b of the display device 2b at the other base, and conversely, on the display 3b of the display device 2b at the other base. The image drawn in is displayed on the display 3a of the display device 2a at one base. As described above, since the image processing system 1 can perform remote sharing processing for sharing the same image at a remote location, it is very convenient to use it for a conference or the like at a remote location.

なお、以下では、複数の表示装置のうち任意の表示装置を示す場合には「表示装置2」と示す。複数のディスプレイのうち任意のディスプレイを示す場合には「ディスプレイ3」と示す。複数の電子ペンのうち任意の電子ペンを示す場合には「電子ペン4」と示す。複数のUSBメモリのうち任意のUSBメモリを示す場合には「USBメモリ5」と示す。複数のノートPCのうち任意のノートPCを示す場合には「ノートPC6」と示す。複数のテレビ会議端末のうち任意のテレビ会議端末を示す場合には「テレビ会議端末7」と示す。また、複数のユーザの手のうち任意の手を示す場合には「手H」と示す。複数のケーブルのうち任意のケーブルを示す場合には「ケーブル10」と示す。 In the following, when an arbitrary display device among a plurality of display devices is indicated, it is referred to as "display device 2". When indicating an arbitrary display among a plurality of displays, it is indicated as "display 3". When indicating an arbitrary electronic pen among a plurality of electronic pens, it is indicated as "electronic pen 4". When indicating an arbitrary USB memory among a plurality of USB memories, it is indicated as "USB memory 5". When indicating an arbitrary notebook PC among a plurality of notebook PCs, it is indicated as "notebook PC 6". When indicating an arbitrary video conferencing terminal among a plurality of video conferencing terminals, it is indicated as "video conferencing terminal 7". Further, when indicating an arbitrary hand among the hands of a plurality of users, it is indicated as "hand H". When indicating an arbitrary cable among a plurality of cables, it is indicated as "cable 10".

また、本実施形態では、表示装置2の一例として、電子黒板を説明するが、これに限るものではなく、表示装置2の他の例として、電子看板(デジタルサイネージ)、スポーツや天気予報等で利用されるテレストレータ、又は、遠隔画像(映像)診断装置等であってもよい。また、情報処理端末の一例として、ノートPC6を説明するが、これに限るものではなく、情報処理端末の他の例として、デスクトップ型PCやタブレット型PC、PDA、デジタルビデオカメラ、デジタルカメラ、ゲーム機等の画像フレームを供給可能な端末であってもよい。更に、通信ネットワークには、インターネット、LAN(Local Area Network)、携帯電話通信網等が含まれる。また、本実施形態では、記録媒体の一例として、USBメモリを説明するが、これに限るものではなく、記録媒体の他の例として、SDカード等の各種記録メディアであってもよい。 Further, in the present embodiment, an electronic blackboard will be described as an example of the display device 2, but the present invention is not limited to this, and other examples of the display device 2 include an electronic signage (digital signage), sports, weather forecast, and the like. It may be a telestrator to be used, a remote image (video) diagnostic device, or the like. Further, the notebook PC 6 will be described as an example of the information processing terminal, but the present invention is not limited to this, and other examples of the information processing terminal include a desktop PC, a tablet PC, a PDA, a digital video camera, a digital camera, and a game. It may be a terminal capable of supplying an image frame such as a machine. Further, the communication network includes the Internet, LAN (Local Area Network), mobile phone communication network and the like. Further, in the present embodiment, the USB memory will be described as an example of the recording medium, but the present invention is not limited to this, and various recording media such as an SD card may be used as another example of the recording medium.

<表示装置のハードウェア構成>
図5は、表示装置のハードウェア構成図の一例である。図5では表示装置2として表示装置を想定して説明する。図5に示されているように、表示装置2は、CPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203、SSD(Solid State Drive)204、ネットワークI/F205、及び、外部機器接続I/F(Interface)206を備えている。
<Hardware configuration of display device>
FIG. 5 is an example of a hardware configuration diagram of the display device. In FIG. 5, a display device 2 will be described as a display device 2. As shown in FIG. 5, the display device 2 includes a CPU (Central Processing Unit) 201, a ROM (Read Only Memory) 202, a RAM (Random Access Memory) 203, an SSD (Solid State Drive) 204, and a network I / It includes an F205 and an external device connection I / F (Interface) 206.

これらのうち、CPU201は、表示装置2全体の動作を制御する。ROM202は、CPU201やIPL(Initial Program Loader)等のCPU201の駆動に用いられるプログラムを記憶する。RAM203は、CPU201のワークエリアとして使用される。SSD204は、表示装置用のプログラム等の各種データを記憶する。ネットワークI/F205は、通信ネットワーク9との通信を制御する。外部機器接続I/F206は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、例えば、USB(Universal Serial Bus)メモリ5、外付け機器(マイク240、スピーカ250、カメラ260)である。 Of these, the CPU 201 controls the operation of the entire display device 2. The ROM 202 stores a program used to drive the CPU 201 such as the CPU 201 and the IPL (Initial Program Loader). The RAM 203 is used as a work area of the CPU 201. The SSD 204 stores various data such as a program for a display device. The network I / F 205 controls communication with the communication network 9. The external device connection I / F 206 is an interface for connecting various external devices. The external device in this case is, for example, a USB (Universal Serial Bus) memory 5, an external device (microphone 240, speaker 250, camera 260).

また、表示装置2は、キャプチャデバイス211、GPU212、ディスプレイ3コントローラ213、接触センサ214、センサコントローラ215、電子ペンコントローラ216、近距離通信回路219、及び近距離通信回路219のアンテナ219a、電源スイッチ222、選択スイッチ類223、カメラ224、及び、方向検知センサ225を備えている。 Further, the display device 2 includes a capture device 211, a GPU 212, a display 3 controller 213, a contact sensor 214, a sensor controller 215, an electronic pen controller 216, a short-range communication circuit 219, an antenna 219a of the short-range communication circuit 219, and a power switch 222. , Selection switches 223, a camera 224, and a direction detection sensor 225.

これらのうち、キャプチャデバイス211は、外付けのPC(Personal Computer))270のディスプレイ3に対して映像を静止画又は動画として表示させる。GPU(Graphics Processing Unit)212は、グラフィクスを専門に扱う半導体チップである。ディスプレイ3コントローラ213は、GPU212からの出力画像をディスプレイ3等へ出力するために画面表示の制御及び管理を行う。接触センサ214は、ディスプレイ3上に電子ペン290やユーザの手H等が接触したことを検知する。センサコントローラ215は、接触センサ214の処理を制御する。接触センサ214は、赤外線遮断方式による座標の入力及び座標の検出を行う。この座標の入力及び座標の検出する方法は、ディスプレイ3の上側両端部に設置された2つ受発光装置が、ディスプレイ3に平行して複数の赤外線を放射し、ディスプレイ3の周囲に設けられた反射部材によって反射されて、受光素子が放射した光の光路と同一の光路上を戻って来る光を受光する方法である。接触センサ214は、物体によって遮断された2つの受発光装置が放射した赤外線のIDをセンサコントローラ215に出力し、センサコントローラ215が、物体の接触位置である座標位置を特定する。電子ペンコントローラ216は、電子ペン290と通信することで、ディスプレイ3へのペン先のタッチやペン尻のタッチの有無を判断する。近距離通信回路219は、NFC(Near Field Communication)やBluetooth(登録商標)等の通信回路である。電源スイッチ222は、表示装置2の電源のON/OFFを切り換えるためのスイッチである。選択スイッチ類223は、例えば、ディスプレイ3の表示の明暗や色合い等を調整するためのスイッチ群である。 Of these, the capture device 211 causes the display 3 of the external PC (Personal Computer) 270 to display the image as a still image or a moving image. The GPU (Graphics Processing Unit) 212 is a semiconductor chip that specializes in graphics. The display 3 controller 213 controls and manages the screen display in order to output the output image from the GPU 212 to the display 3 and the like. The contact sensor 214 detects that the electronic pen 290, the user's hand H, or the like has come into contact with the display 3. The sensor controller 215 controls the processing of the contact sensor 214. The contact sensor 214 inputs and detects the coordinates by the infrared blocking method. In the method of inputting the coordinates and detecting the coordinates, two light receiving and emitting devices installed at both upper ends of the display 3 radiate a plurality of infrared rays in parallel with the display 3 and are provided around the display 3. This is a method of receiving light that is reflected by a reflecting member and returns on the same optical path as the light path emitted by the light receiving element. The contact sensor 214 outputs an infrared ID emitted by two light emitting / receiving devices blocked by the object to the sensor controller 215, and the sensor controller 215 specifies a coordinate position which is a contact position of the object. The electronic pen controller 216 determines whether or not there is a touch of the pen tip or a touch of the pen tail on the display 3 by communicating with the electronic pen 290. The short-range communication circuit 219 is a communication circuit such as NFC (Near Field Communication) or Bluetooth (registered trademark). The power switch 222 is a switch for switching ON / OFF of the power of the display device 2. The selection switches 223 are, for example, a group of switches for adjusting the brightness and color tone of the display of the display 3.

カメラ224はディスプレイ3の例えばベゼルに内蔵されている撮像装置であり、表示装置2の前方を撮像する。カメラ224があればカメラ260のように外付け型のカメラはなくてもよい。 The camera 224 is an image pickup device built in, for example, the bezel of the display 3, and images the front of the display device 2. If there is a camera 224, it is not necessary to have an external camera like the camera 260.

方向検知センサ225は、ディスプレイ3の方向を検知するセンサである。ディスプレイ3の方向には縦向きと横向きがある。本実施例の表示装置2は、ディスプレイ3をユーザが縦向き又は横向きに切り替えることができる。このよう機能をピボット機能という。回転自体はディスプレイ3を支えるスタンドの機構によるが、方向検知センサ225はディスプレイ3の回転角度を検知する。例えば、加速度センサにより重力方向を検出して、縦向きか横向きかを検出する。あるいは、スタンド部分の回転を検出してもよい。表示装置2はディスプレイ3が横向きでも縦向きでも、画像11の上下が天地方向に合うように回転させる。 The direction detection sensor 225 is a sensor that detects the direction of the display 3. The display 3 has a vertical orientation and a horizontal orientation. In the display device 2 of this embodiment, the user can switch the display 3 in portrait or landscape orientation. Such a function is called a pivot function. The rotation itself depends on the mechanism of the stand that supports the display 3, but the direction detection sensor 225 detects the rotation angle of the display 3. For example, the acceleration sensor detects the direction of gravity to detect whether it is in portrait or landscape orientation. Alternatively, the rotation of the stand portion may be detected. The display device 2 rotates the image 11 so that the top and bottom of the image 11 are aligned with each other regardless of whether the display 3 is oriented horizontally or vertically.

更に、表示装置2は、バスライン210を備えている。バスライン210は、図5に示されているCPU201等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 Further, the display device 2 includes a bus line 210. The bus line 210 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 201 shown in FIG.

なお、接触センサ214は、赤外線遮断方式に限らず、静電容量の変化を検知することにより接触位置を特定する静電容量方式のタッチパネル、対向する2つの抵抗膜の電圧変化によって接触位置を特定する抵抗膜方式のタッチパネル、接触物体が表示部に接触することによって生じる電磁誘導を検知して接触位置を特定する電磁誘導方式のタッチパネルなどの種々の検出手段を用いてもよい。また、電子ペンコントローラ216が、電子ペン290のペン先及びペン尻だけでなく、電子ペン290のユーザが握る部分や、その他の電子ペンの部分のタッチの有無を判断するようにしてもよい。 The contact sensor 214 is not limited to the infrared blocking method, but is a capacitive touch panel that specifies a contact position by detecting a change in capacitance, and a contact position is specified by a voltage change between two opposing resistance films. Various detection means such as a resistance film type touch panel and an electromagnetic induction type touch panel that detects the electromagnetic induction generated when a contact object comes into contact with the display unit and specifies the contact position may be used. Further, the electronic pen controller 216 may determine whether or not there is a touch not only on the pen tip and pen end of the electronic pen 290 but also on the portion gripped by the user of the electronic pen 290 and other electronic pen portions.

<表示装置の機能構成>
続いて、図6〜図12を用いて、表示装置2の機能構成について説明する。なお、先ずは、図6を用いて、表示装置2の全体的な機能構成について説明する。図6は、表示装置2の機能をブロック状に分けて説明する機能ブロック図である。
<Functional configuration of display device>
Subsequently, the functional configuration of the display device 2 will be described with reference to FIGS. 6 to 12. First, the overall functional configuration of the display device 2 will be described with reference to FIG. FIG. 6 is a functional block diagram for explaining the functions of the display device 2 by dividing them into blocks.

表示装置2は、図5に示されているハードウェア構成及びプログラムによって、図6示されている各機能構成を有する。表示装置2は、最初に遠隔共有処理を開始する「主催装置」となり得ると共に、既に開始されている遠隔共有処理に後から参加する「参加装置」にもなり得る。また、表示装置2は、大きく分けて、クライアント部20及びサーバ部90の両方によって構成されている。 The display device 2 has each functional configuration shown in FIG. 6 according to the hardware configuration and program shown in FIG. The display device 2 can be a "sponsoring device" that first starts the remote sharing process, and can also be a "participating device" that later participates in the remote sharing process that has already been started. Further, the display device 2 is roughly divided into both a client unit 20 and a server unit 90.

クライアント部20及びサーバ部90は、表示装置2の1台の筐体内で実現される機能である。そして、表示装置2が主催装置となる場合には、この表示装置2では、クライアント部20とサーバ部90が実現される。また、表示装置2が参加装置となる場合には、この表示装置2では、クライアント部20は実現されるが、サーバ部90は実現されない。即ち、図4において、表示装置2aが主催装置で、表示装置2bが参加装置となる場合、表示装置2aのクライアント部20は、同じ表示装置2a内に実現されたサーバ部90を介して、他の表示装置2bのクライアント部20と通信を行う。一方、表示装置2bのクライアント部20は、他の表示装置2a内に実現されたサーバ部90を介して、他の表示装置2aのクライアント部と通信を行う。 The client unit 20 and the server unit 90 are functions realized in one housing of the display device 2. When the display device 2 serves as the host device, the client unit 20 and the server unit 90 are realized in the display device 2. Further, when the display device 2 becomes a participating device, the client unit 20 is realized in the display device 2, but the server unit 90 is not realized. That is, in FIG. 4, when the display device 2a is the host device and the display device 2b is the participating device, the client unit 20 of the display device 2a is via the server unit 90 realized in the same display device 2a. Communicates with the client unit 20 of the display device 2b. On the other hand, the client unit 20 of the display device 2b communicates with the client unit of the other display device 2a via the server unit 90 realized in the other display device 2a.

〔クライアント部の機能構成〕
続いて、主に図6から図12を用いて、クライアント部20の機能構成について説明する。クライアント部20は、映像取得部21、座標検知部22、自動調整部23、接触検知部24、イベント振分部25、操作処理部26、ジェスチャ処理部27、映像重畳部28、画像処理部30、及び通信制御部60を有する。
[Functional configuration of client part]
Subsequently, the functional configuration of the client unit 20 will be described mainly with reference to FIGS. 6 to 12. The client unit 20 includes a video acquisition unit 21, a coordinate detection unit 22, an automatic adjustment unit 23, a contact detection unit 24, an event distribution unit 25, an operation processing unit 26, a gesture processing unit 27, an image superimposing unit 28, and an image processing unit 30. , And a communication control unit 60.

このうち、映像取得部21は、ケーブル10に接続された映像出力機器の出力画像を取得する。映像取得部21は、映像出力機器から画像信号を受信すると、この画像信号を解析して、この画像信号によって形成される映像出力機器の表示画像である画像フレームの解像度や、この画像フレームの更新頻度などの画像情報を導出し、画像取得部31に出力する。 Of these, the video acquisition unit 21 acquires the output image of the video output device connected to the cable 10. When the image acquisition unit 21 receives an image signal from the image output device, the image acquisition unit 21 analyzes the image signal, updates the resolution of the image frame which is the display image of the image output device formed by the image signal, and updates the image frame. Image information such as frequency is derived and output to the image acquisition unit 31.

座標検知部22は、ディスプレイ3上でユーザが入力手段を接触させた座標位置を検出する。ユーザがディスプレイ3上で入力手段を連続的に移動させた軌跡が手書きデータ8である。また、この手書きデータ8をストロークという場合がある。なお、入力手段は電子ペン4又はユーザの手Hのどちらでもよい。また、座標検知部22は、タッチされた面積も検出する。 The coordinate detection unit 22 detects the coordinate position on the display 3 that the user has brought into contact with the input means. The handwritten data 8 is a locus in which the user continuously moves the input means on the display 3. Further, the handwritten data 8 may be referred to as a stroke. The input means may be either the electronic pen 4 or the user's hand H. The coordinate detection unit 22 also detects the touched area.

自動調整部23は、表示装置2の起動時に起動され、接触センサ214が座標検知部22に適切な値を出力できるように、接触センサ214の光センサ方式におけるセンサーカメラの画像処理のパラメータを調整する。 The automatic adjustment unit 23 is activated when the display device 2 is activated, and adjusts the image processing parameters of the sensor camera in the optical sensor method of the contact sensor 214 so that the contact sensor 214 can output an appropriate value to the coordinate detection unit 22. To do.

接触検知部24は、ユーザによって生じたイベント(ディスプレイ3上に電子ペン4のペン先又は電子ペン4のペン尻が押下(タッチ)された動作等)を検出する。 The contact detection unit 24 detects an event (such as an operation in which the pen tip of the electronic pen 4 or the pen tail of the electronic pen 4 is pressed (touched) on the display 3) caused by the user.

イベント振分部25は、座標検知部22によって検知されたイベントの座標位置と接触検知部24によって検出された検出結果を、ストローク描画、UI操作、及びジェスチャ操作の各イベントに振り分ける。 The event distribution unit 25 distributes the coordinate position of the event detected by the coordinate detection unit 22 and the detection result detected by the contact detection unit 24 into each event of stroke drawing, UI operation, and gesture operation.

ここで、「ストローク描画」は、ディスプレイ3上に図12に示されている後述のストローク画像(B)が表示されている場合に、ユーザがディスプレイ3上で電子ペン4を押下し、この押下した状態で電子ペン4を移動させ、最終的にディスプレイ3上から電子ペン4を離すまでのイベントである。このストローク描画により、例えば、アルファベット「S」や「T」等がディスプレイ3上に描画される。なお、この「ストローク描画」には、画像を描画するだけでなく、既に描画された画像を削除したり、描画された画像を編集したりするイベントも含まれる。 Here, in the "stroke drawing", when the stroke image (B) shown in FIG. 12 is displayed on the display 3, the user presses the electronic pen 4 on the display 3, and this pressing is performed. This is an event in which the electronic pen 4 is moved in this state, and finally the electronic pen 4 is released from the display 3. By this stroke drawing, for example, the alphabets "S" and "T" are drawn on the display 3. Note that this "stroke drawing" includes not only drawing an image, but also an event of deleting an already drawn image or editing the drawn image.

「UI操作」は、ディスプレイ3上に図12に示されている後述のUI画像(A)が表示されている場合に、ユーザが電子ペン4又は手Hによって所定の位置を押下したイベントである。このUI操作により、例えば、電子ペン4により描画される線の色や幅等が設定される。 The "UI operation" is an event in which the user presses a predetermined position with the electronic pen 4 or the hand H when the UI image (A) shown in FIG. 12 is displayed on the display 3. .. By this UI operation, for example, the color and width of the line drawn by the electronic pen 4 are set.

「ジェスチャ操作」は、ディスプレイ3上に図12に示されている後述のストローク画像(B)が表示されている場合に、ユーザが手Hでディスプレイ3上をタッチしたり移動したりするイベントである。このジェスチャ操作により、例えば、ユーザがディスプレイ3に手Hをタッチさせた状態で手Hを移動させることで、画像の拡大(若しくは縮小)、表示領域の変更、又は、ページ切り換え等を行うことができる。 The "gesture operation" is an event in which the user touches or moves on the display 3 with the hand H when the stroke image (B) shown in FIG. 12 is displayed on the display 3. is there. By this gesture operation, for example, by moving the hand H while the user touches the hand H on the display 3, the image can be enlarged (or reduced), the display area can be changed, the page can be switched, and the like. it can.

操作処理部26は、イベント振分部25によってUI操作と判断されたものから、イベントが発生されたUIの要素にしたがって、各種操作を実行する。このUIの要素としては、例えば、ボタン、リスト、チェックボックス、テキストボックスが挙げられる。
ジェスチャ処理部27は、イベント振分部25によってジェスチャ操作と判断されたものに対応した操作を実行する。
The operation processing unit 26 executes various operations according to the elements of the UI in which the event has occurred from those determined to be UI operations by the event distribution unit 25. Elements of this UI include, for example, buttons, lists, checkboxes, and text boxes.
The gesture processing unit 27 executes an operation corresponding to the gesture operation determined by the event distribution unit 25.

映像重畳部28は、後述の表示重畳部36で重畳された画像を映像として映像出力機器(ディスプレイ3等)に対して表示する。また、映像重畳部28は、映像出力機器(ノートPC6等)からの映像に対して、他の映像出力機器(テレビ会議端末7等)から送られて来た映像をピクチャ・イン・ピクチャする。更に、映像重畳部28は、ピクチャ・イン・ピクチャされてディスプレイ3の一部に表示された映像を、ディスプレイ3の全体に表示させるための切り替えを行う。 The image superimposing unit 28 displays the image superimposed by the display superimposing unit 36, which will be described later, as an image on the image output device (display 3 or the like). Further, the video superimposing unit 28 pictures-in-pictures the video sent from another video output device (video conference terminal 7 or the like) with respect to the video from the video output device (notebook PC 6 or the like). Further, the image superimposing unit 28 switches to display the image that has been picture-in-pictured and displayed on a part of the display 3 on the entire display 3.

画像処理部30は、図12に示されているような各画像レイヤの重畳処理等を行う。この画像処理部30は、画像取得部31、ストローク処理部32、UI画像生成部33、画像生成部34、レイアウト管理部35、表示重畳部36、ページ処理部37、ファイル処理部40、ページデータ記憶部300、及び遠隔ライセンス管理テーブル310を有している。 The image processing unit 30 performs superimposition processing of each image layer as shown in FIG. The image processing unit 30 includes an image acquisition unit 31, a stroke processing unit 32, a UI image generation unit 33, an image generation unit 34, a layout management unit 35, a display superimposition unit 36, a page processing unit 37, a file processing unit 40, and page data. It has a storage unit 300 and a remote license management table 310.

このうち、画像取得部31は、映像取得部21で取得された映像から、各フレームを画像として取得する。画像取得部31は、この画像のデータを、ページ処理部37に出力する。この画像は、図12に示されている映像出力機器(ノートPC6等)からの出力画像(C)に相当する。 Of these, the image acquisition unit 31 acquires each frame as an image from the image acquired by the image acquisition unit 21. The image acquisition unit 31 outputs the data of this image to the page processing unit 37. This image corresponds to the output image (C) from the video output device (notebook PC 6 or the like) shown in FIG.

ストローク処理部32は、イベント振分部25によって割り振られたストローク描画に係るイベントに基づいて、画像を描画したり、描画された画像を削除したり、描画された画像を編集する。このストローク描画による画像は、図12に示されているストローク画像(B)に相当する。また、このストローク描画に基づいた画像の描画、削除、編集の各結果は、後述の操作データとして、操作データ記憶部840に記憶される。 The stroke processing unit 32 draws an image, deletes the drawn image, and edits the drawn image based on the event related to the stroke drawing assigned by the event distribution unit 25. The image obtained by drawing the stroke corresponds to the stroke image (B) shown in FIG. Further, each result of drawing, deleting, and editing the image based on the stroke drawing is stored in the operation data storage unit 840 as the operation data described later.

UI画像生成部33は、表示装置2に予め設定されているUI(ユーザインターフェース)画像を生成する。このUI画像は、図12に示されているUI画像(A)に相当する。 The UI image generation unit 33 generates a UI (user interface) image preset in the display device 2. This UI image corresponds to the UI image (A) shown in FIG.

画像生成部34は、ページ処理部37がページデータ記憶部300から読み出したページデータのうちのメディアデータを、ページ処理部37から受信する。画像生成部34は、この受信したメディアデータを表示重畳部36に出力する。また、このメディアデータによる画像は、図12に示されている背景画像(D)に相当する。背景画像(D)のパターンは、無地、グリッド表示等である。 The image generation unit 34 receives the media data of the page data read from the page data storage unit 300 by the page processing unit 37 from the page processing unit 37. The image generation unit 34 outputs the received media data to the display superimposition unit 36. Further, the image based on this media data corresponds to the background image (D) shown in FIG. The pattern of the background image (D) is a solid color, a grid display, or the like.

レイアウト管理部35は、表示重畳部36に対して、画像取得部31、ストローク処理部32、及びUI画像生成部33(又は画像生成部34)から出力された各画像のレイアウトを示すレイアウト情報を管理している。これにより、レイアウト管理部35は、表示重畳部36に対して、出力画像(C)及びストローク画像(B)を、UI画像(A)及び背景画像(D)中のどの位置に表示させるか又は非表示にさせるかを指示することができる。 The layout management unit 35 provides the display superimposition unit 36 with layout information indicating the layout of each image output from the image acquisition unit 31, the stroke processing unit 32, and the UI image generation unit 33 (or the image generation unit 34). I manage it. As a result, the layout management unit 35 causes the display superimposition unit 36 to display the output image (C) and the stroke image (B) at which position in the UI image (A) and the background image (D). You can instruct whether to hide it.

表示重畳部36は、レイアウト管理部35から出力されたレイアウト情報に基づき、画像取得部31、ストローク処理部32、及びUI画像生成部33(画像生成部34)から出力された各画像のレイアウトを行う。 Based on the layout information output from the layout management unit 35, the display superimposition unit 36 arranges the layout of each image output from the image acquisition unit 31, the stroke processing unit 32, and the UI image generation unit 33 (image generation unit 34). Do.

ページ処理部37は、ストローク画像(B)のデータと出力画像(C)のデータを、1つのページデータにまとめてページデータ記憶部300に記憶する。ストローク画像(B)のデータは、図8に示されているストローク配列データIDで示されるストローク配列データ(各ストロークデータ)として、ページデータの一部を成す。出力画像(C)のデータは、図8に示されているメディアデータIDで示されているメディアデータとして、ページデータの一部を成す。そして、このメディアデータは、ページデータ記憶部300から読み出されると、背景画像(D)のデータとして取り扱われる。 The page processing unit 37 collects the data of the stroke image (B) and the data of the output image (C) into one page data and stores it in the page data storage unit 300. The data of the stroke image (B) forms a part of the page data as the stroke array data (each stroke data) indicated by the stroke array data ID shown in FIG. The data of the output image (C) forms a part of the page data as the media data indicated by the media data ID shown in FIG. Then, when this media data is read from the page data storage unit 300, it is treated as the data of the background image (D).

また、ページ処理部37は、一旦記憶されたページデータのうちのメディアデータを、画像生成部34を介して表示重畳部36に送信することで、映像重畳部28が背景画像(D)をディスプレイ3に再表示させることができる。また、ページ処理部37は、ページデータのうちのストローク配列データ(各ストロークデータ)を、ストローク処理部32に戻すことで、ストロークの再編集ができる状態にすることができる。更に、ページ処理部37は、ページデータを削除したり複製したりすることもできる。 Further, the page processing unit 37 transmits the media data of the page data once stored to the display superimposition unit 36 via the image generation unit 34, so that the image superimposition unit 28 displays the background image (D). It can be redisplayed in 3. Further, the page processing unit 37 can return the stroke array data (each stroke data) of the page data to the stroke processing unit 32 so that the stroke can be re-edited. Further, the page processing unit 37 can also delete or duplicate the page data.

即ち、ページ処理部37がページデータ記憶部300にページデータを記憶する時点でディスプレイ3上に表示されている出力画像(C)のデータは、一旦、ページデータ記憶部300に記憶され、その後にページデータ記憶部300から読み出される際には、背景画像(D)を示すメディアデータとして読みされる。そして、ページ処理部37は、ページデータ記憶部300から読み出したページデータのうち、ストローク画像(B)を示すストローク配列データを、ストローク処理部32に出力する。また、ページ処理部37は、ページデータ記憶部300から読み出したページデータのうち、背景画像(D)を示すメディアデータを、画像生成部34に出力する。 That is, the data of the output image (C) displayed on the display 3 at the time when the page processing unit 37 stores the page data in the page data storage unit 300 is temporarily stored in the page data storage unit 300, and then stored in the page data storage unit 300. When it is read from the page data storage unit 300, it is read as media data indicating the background image (D). Then, the page processing unit 37 outputs the stroke array data indicating the stroke image (B) among the page data read from the page data storage unit 300 to the stroke processing unit 32. Further, the page processing unit 37 outputs the media data indicating the background image (D) among the page data read from the page data storage unit 300 to the image generation unit 34.

表示重畳部36は、 画像取得部31からの出力画像(C)、ストローク処理部32からのストローク画像(B)、UI画像生成部33からのUI画像(A)、及び、画像生成部34からの背景画像(D)を、レイアウト管理部35によって指定されたレイアウトにしたがって重畳する。これにより、図12に示されているように、各画像が重なってもユーザが見える順に、UI画像(A)、ストローク画像(B)、出力画像(C)、及び背景画像(D)の各レイアの構成となっている。 The display superimposition unit 36 is an output image (C) from the image acquisition unit 31, a stroke image (B) from the stroke processing unit 32, a UI image (A) from the UI image generation unit 33, and an image generation unit 34. The background image (D) of the above is superimposed according to the layout specified by the layout management unit 35. As a result, as shown in FIG. 12, each of the UI image (A), the stroke image (B), the output image (C), and the background image (D) is in the order in which the user can see the images even if they overlap each other. It is composed of Leia.

また、表示重畳部36は、図12に示されている画像(C)と画像(D)を切り替えて、画像(A)及び画像(B)に対して排他的に重畳することも可能である。例えば、当初、画像(A)、画像(B)及び画像(C)が表示されている状態で、表示装置2と映像出力機器(ノートPC6等)との間のケーブル10が抜かれた場合には、レイアウト管理部35の指定によって、画像(C)を重畳対象から外し、画像(D)を表示させることができる。この場合に、また、表示重畳部36は、表示の拡大、表示の縮小、表示領域の移動処理も行う。 Further, the display superimposition unit 36 can switch between the image (C) and the image (D) shown in FIG. 12 and superimpose the image (A) and the image (B) exclusively. .. For example, when the image (A), the image (B), and the image (C) are initially displayed and the cable 10 between the display device 2 and the video output device (notebook PC 6 or the like) is disconnected, By the designation of the layout management unit 35, the image (C) can be excluded from the superimposition target and the image (D) can be displayed. In this case, the display superimposing unit 36 also performs display enlargement, display reduction, and display area movement processing.

ページデータ記憶部300は、図8に示されているようなページデータを記憶する。図8は、ページデータを示す概念図である。ページデータは、ディスプレイ3に表示される1ページ分のデータ(ストローク配列データ(各ストロークデータ)及びメディアデータ)である。なお、ページデータに含まれるパラメータの種類が多いため、ここでは、図8乃至11に分けて、ページデータの内容を説明する。 The page data storage unit 300 stores page data as shown in FIG. FIG. 8 is a conceptual diagram showing page data. The page data is data for one page (stroke array data (each stroke data) and media data) displayed on the display 3. Since there are many types of parameters included in the page data, the contents of the page data will be described here by dividing them into FIGS. 8 to 11.

ページデータは、図8に示されているように、任意の1ページを識別するためのページデータID、このページの表示を開始した時刻を示す開始時刻、ストロークやジェスチャ等によるページの内容の書き換えが行われなくなった時刻を示す終了時刻、電子ペン4やユーザの手Hによるストロークによって生じたストローク配列データを識別するためのストローク配列データID、及びメディアデータを識別するためのメディアデータIDが関連付けて記憶されている。ストローク配列データは、後述の図12に示されているストローク画像(B)がディスプレイ3上に表示されるためのデータである。メディアデータは、後述の16に示されている背景画像(D)がディスプレイ3上に表示されるためのデータである。 As shown in FIG. 8, the page data includes a page data ID for identifying an arbitrary page, a start time indicating the time when the display of this page is started, and rewriting the contents of the page by strokes, gestures, or the like. The end time indicating the time when is no longer performed, the stroke array data ID for identifying the stroke array data generated by the stroke by the electronic pen 4 or the user's hand H, and the media data ID for identifying the media data are associated with each other. Is remembered. The stroke array data is data for displaying the stroke image (B) shown in FIG. 12, which will be described later, on the display 3. The media data is data for displaying the background image (D) shown in 16 below on the display 3.

このようなページデータにより、例えば、ユーザが電子ペン4によってアルファベット「S」を描く場合は一筆書きとなるため、ストロークデータIDが1つで一文字のアルファベット[S]が示される。ところが、ユーザが電子ペン4によってアルファベット「T」を描く場合、二筆書きとなるため、ストロークデータIDが2つで一文字のアルファベット「T」が示されることになる。 With such page data, for example, when the user draws the alphabet "S" with the electronic pen 4, it is written in one stroke, so that the alphabet [S] of one character is indicated by one stroke data ID. However, when the user draws the alphabet "T" with the electronic pen 4, since it is written in two strokes, the alphabet "T" of one character is indicated by two stroke data IDs.

また、ストローク配列データは、図9に示されているように詳細な情報を示している。図9は、ストローク配列データを示す概念図である。図9に示されているように、1つのストローク配列データは、複数のストロークデータによって表される。そして、1つのストロークデータは、このストロークデータを識別するためのストロークデータID、1つのストロークの書き始めの時刻を示す開始時刻、1つのストロークの書き終わりの時刻を示す終了時刻、ストロークの色、ストロークの幅、及び、ストロークの通過点の配列を識別するための座標配列データIDを示している。 Further, the stroke array data shows detailed information as shown in FIG. FIG. 9 is a conceptual diagram showing stroke array data. As shown in FIG. 9, one stroke array data is represented by a plurality of stroke data. Then, one stroke data includes a stroke data ID for identifying the stroke data, a start time indicating the writing start time of one stroke, an end time indicating the writing end time of one stroke, and a stroke color. The width of the stroke and the coordinate array data ID for identifying the array of passing points of the stroke are shown.

更に、この座標配列データは、図10に示されているように詳細な情報を示している。図10は、座標配列データを示す概念図である。図10に示されているように、座標配列データは、ディスプレイ3上の1点(X座標値、Y座標値)、この1点を通過したときのストロークの開始時刻からの差分の時刻(ms)、及び、この1点における電子ペン4の筆圧の各情報を示している。即ち、図10に示されている1点の集まりが、図9に示されている1つの座標配列データで示されている。例えば、ユーザが電子ペン4によってアルファベット「S」を描く場合、一筆書きとなるが、「S」を描き終えるまでに、複数の通過点を通過するため、座標配列データは、これら複数の通過点の情報を示している。 Further, the coordinate array data shows detailed information as shown in FIG. FIG. 10 is a conceptual diagram showing coordinate array data. As shown in FIG. 10, the coordinate array data is one point (X coordinate value, Y coordinate value) on the display 3, and the time (ms) of the difference from the start time of the stroke when passing through this one point. ), And each information of the pen pressure of the electronic pen 4 at this one point is shown. That is, a set of one point shown in FIG. 10 is shown by one coordinate array data shown in FIG. For example, when the user draws the alphabet "S" with the electronic pen 4, it is written in one stroke, but since the user passes through a plurality of passing points by the time the drawing of the "S" is completed, the coordinate array data has these multiple passing points. Information is shown.

また、図8に示されているページデータのうちのメディアデータは、図11に示されているように詳細な情報を示している。図11は、メディアデータを示す概念図である。図11に示されているように、メディアデータは、図8に示されているページデータにおけるメディアデータID、メディアデータのデータ種類、ページ処理部37からページデータ記憶部300にページデータが記憶された記録時刻、ページデータによってディスプレイ3上に表示される画像の位置(X座標値、Y座標値)及び画像のサイズ(幅、高さ)、並びにメディアデータの内容を示すデータが関連付けられて示されている。このうち、ページデータによってディスプレイ3上に表示される画像の位置は、ディスプレイ3の左上端の座標を(X座標値,Y座標値)=(0,0)とした場合に、ページデータによって表示される画像の左上端の位置を示している。 Further, the media data among the page data shown in FIG. 8 shows detailed information as shown in FIG. FIG. 11 is a conceptual diagram showing media data. As shown in FIG. 11, as for the media data, the media data ID in the page data shown in FIG. 8, the data type of the media data, and the page data are stored in the page data storage unit 300 from the page processing unit 37. The recorded time, the position (X coordinate value, Y coordinate value) of the image displayed on the display 3 by the page data, the size (width, height) of the image, and the data indicating the contents of the media data are shown in association with each other. Has been done. Of these, the position of the image displayed on the display 3 by the page data is displayed by the page data when the coordinates of the upper left corner of the display 3 are (X coordinate value, Y coordinate value) = (0,0). It shows the position of the upper left corner of the image to be displayed.

また、図6に戻り、遠隔ライセンス管理テーブル310は、遠隔共有処理を実行するために必要なライセンスデータを管理する。この遠隔ライセンス管理テーブル310では、表示装置2のプロダクトID、認証に用いられるライセンスID、及びライセンスの有効期限が関連付けて管理されている。 Further, returning to FIG. 6, the remote license management table 310 manages the license data necessary for executing the remote sharing process. In the remote license management table 310, the product ID of the display device 2, the license ID used for authentication, and the expiration date of the license are managed in association with each other.

<ファイル処理部の機能構成>
続いて、図7を用いて、図6に示されているファイル処理部40の機能構成を説明する。なお、図7は、ファイル処理部の機能ブロック図である。
<Functional configuration of file processing unit>
Subsequently, the functional configuration of the file processing unit 40 shown in FIG. 6 will be described with reference to FIG. 7. Note that FIG. 7 is a functional block diagram of the file processing unit.

ファイル処理部40は、リカバリ処理部41、ファイル入力部42a、ファイル出力部42b、ファイル変換部43、ファイル送信部44、アドレス帳入力部45、バックアップ処理部46、バックアップ出力部47、設定管理部48、設定ファイル入力部49a、及び設定ファイル出力部49bを有している。更に、ファイル処理部40は、アドレス帳管理テーブル410、バックアップデータ記憶部420、設定ファイル記憶部421、及び接続先管理テーブル440を有している。 The file processing unit 40 includes a recovery processing unit 41, a file input unit 42a, a file output unit 42b, a file conversion unit 43, a file transmission unit 44, an address book input unit 45, a backup processing unit 46, a backup output unit 47, and a setting management unit. It has 48, a setting file input unit 49a, and a setting file output unit 49b. Further, the file processing unit 40 has an address book management table 410, a backup data storage unit 420, a setting file storage unit 421, and a connection destination management table 440.

このうち、リカバリ処理部41は、表示装置2が異常終了した後に、異常終了を検知し、未保存のページデータを復旧する。例えば、正常終了の場合は、ページデータがPDFファイルとしてファイル処理部40を介してUSB5に記録されるが、電源がダウンした等の異常終了の場合は、ページデータがページデータ記憶部300に記録されたままになっている。そのため、再び、電源オンになった際に、リカバリ処理部41は、ページデータ記憶部300からページデータを読み出すことで復旧させる。 Of these, the recovery processing unit 41 detects the abnormal termination after the display device 2 abnormally terminates, and recovers the unsaved page data. For example, in the case of normal termination, the page data is recorded as a PDF file in the USB 5 via the file processing unit 40, but in the case of abnormal termination such as when the power is turned off, the page data is recorded in the page data storage unit 300. It remains to be done. Therefore, when the power is turned on again, the recovery processing unit 41 recovers by reading the page data from the page data storage unit 300.

ファイル入力部42aは、USBメモリ5からPDFファイルを読み込み、各ページをページデータとしてページデータ記憶部300に記憶する。PDFファイルはページデータのうちメディアデータ、すなわち背景画像となる。このPDFファイルは表示装置2が取り込んでUSBメモリ5に記憶させておいたものの場合もある。 The file input unit 42a reads the PDF file from the USB memory 5 and stores each page as page data in the page data storage unit 300. The PDF file is the media data of the page data, that is, the background image. This PDF file may be captured by the display device 2 and stored in the USB memory 5.

ファイル変換部43は、ページデータ記憶部300に記憶されているページデータを、PDF形式のファイルに変換する。ファイル出力部42bは、ファイル変換部43によって出力されたPDFファイルをUSBメモリ5に記録する。ファイル送信部44は、ファイル変換部43によって生成されたPDFファイルを、電子メールに添付して送信する。このファイルの送信先は、表示重畳部36によってディスプレイ3上にアドレス帳管理テーブル410の内容を表示し、ファイル送信部44がユーザによるタッチパネル等の入力装置の操作により、宛先の選択を受け付けることによって決定される。 The file conversion unit 43 converts the page data stored in the page data storage unit 300 into a PDF format file. The file output unit 42b records the PDF file output by the file conversion unit 43 in the USB memory 5. The file transmission unit 44 attaches the PDF file generated by the file conversion unit 43 to an e-mail and transmits the PDF file. The destination of this file is that the display superimposition unit 36 displays the contents of the address book management table 410 on the display 3, and the file transmission unit 44 accepts the selection of the destination by the operation of an input device such as a touch panel by the user. It is determined.

アドレス帳入力部45は、USBメモリ5から電子メールアドレスの一覧ファイルを読み込み、アドレス帳管理テーブル410に管理する。 The address book input unit 45 reads the e-mail address list file from the USB memory 5 and manages it in the address book management table 410.

バックアップ処理部46は、ファイル出力部42bによって出力されたファイルや、ファイル送信部44によって送信されたファイルを、バックアップデータ記憶部420に記憶することでバックアップする。なお、ユーザがバックアップ設定しない場合は、バックアップの処理は行われない。 The backup processing unit 46 backs up the file output by the file output unit 42b and the file transmitted by the file transmission unit 44 by storing it in the backup data storage unit 420. If the user does not set the backup, the backup process will not be performed.

バックアップ出力部47は、バックアップされたファイルをUSBメモリ5に記憶する。この記憶の際には、ユーザによるタッチパネル等の入力装置の操作により、セキュリティーのためにパスワードが入力される。 The backup output unit 47 stores the backed up file in the USB memory 5. At the time of this storage, a password is input for security by the operation of an input device such as a touch panel by the user.

設定管理部48は、表示装置2の各種設定情報を設定ファイル記憶部421に記憶したり読み出したりして管理する。この各種設定情報としては、例えば、ネットワーク設定、日付や時刻の設定、地域や言語の設定、メールサーバの設定、アドレス帳の設定、接続先リストの設定、バックアップに関する設定が挙げられる。なお、ネットワーク設定は、例えば、表示装置2のIPアドレスの設定、ネットマスクの設定、デフォルトゲートウェイの設定、又はDNS(Domain Name System)の設定等である。 The setting management unit 48 manages by storing and reading various setting information of the display device 2 in the setting file storage unit 421. Examples of the various setting information include network settings, date and time settings, region and language settings, mail server settings, address book settings, connection destination list settings, and backup settings. The network settings include, for example, the IP address setting of the display device 2, the netmask setting, the default gateway setting, the DNS (Domain Name System) setting, and the like.

設定ファイル出力部49bは、表示装置2の各種設定情報を、設定ファイルとしてUSBメモリ5に記録させる。なお、設定ファイルはセキュリティーによって、ユーザは中身を見ることができない。 The setting file output unit 49b records various setting information of the display device 2 in the USB memory 5 as a setting file. Due to the security of the configuration file, the user cannot see the contents.

設定ファイル入力部49aは、USBメモリ5に記憶されている設定ファイルを読み込み、各種設定情報を表示装置の各種設定に反映させる。 The setting file input unit 49a reads the setting file stored in the USB memory 5 and reflects various setting information in various settings of the display device.

接続先入力部50は、USBメモリ5から遠隔共有処理の接続先IPアドレスの一覧ファイルを読み込み、接続先管理テーブル440に管理する。接続先管理テーブル440は、表示装置2が遠隔共有処理に参加しようとする参加装置である場合、この参加装置のユーザが主催装置としての役割を果たす表示装置のIPアドレスを入力する手間を削減するために、予め管理しておくためのテーブルである。この接続先管理テーブル440では、参加されることが可能な主催装置としての表示装置2が設置されている拠点の名称、及び主催装置としての表示装置2のIPアドレスが関連付けて管理されている。接続先管理テーブル440は、無くてもよい。 The connection destination input unit 50 reads a list file of connection destination IP addresses for remote sharing processing from the USB memory 5 and manages them in the connection destination management table 440. When the display device 2 is a participating device that intends to participate in the remote sharing process, the connection destination management table 440 reduces the time and effort for the user of the participating device to input the IP address of the display device that serves as the host device. Therefore, it is a table to be managed in advance. In the connection destination management table 440, the name of the base where the display device 2 as the host device that can participate is installed and the IP address of the display device 2 as the host device are managed in association with each other. The connection destination management table 440 may not be provided.

但し、この場合には、参加装置のユーザは、主催装置との間で遠隔要求処理の開始するために、タッチパネル等の入力装置によって、主催装置のIPアドレスを入力する必要がある。そのため、参加装置のユーザは、電話や電子メール等によって、主催装置のユーザから、主催装置のIPアドレスを知得する。 However, in this case, the user of the participating device needs to input the IP address of the host device by an input device such as a touch panel in order to start remote request processing with the host device. Therefore, the user of the participating device obtains the IP address of the host device from the user of the host device by telephone, e-mail, or the like.

〔サーバ部の機能構成〕
サーバ部90は、各表示装置2に設けられており、いずれの表示装置2であっても、サーバ部としての役割を果たすことができる。そのため、サーバ部90は、通信制御部70、及びデータ管理部80を有している。
[Functional configuration of server section]
The server unit 90 is provided in each display device 2, and any display device 2 can play a role as a server unit. Therefore, the server unit 90 has a communication control unit 70 and a data management unit 80.

通信制御部70は、同じ表示装置2内のクライアント部20における通信制御部70、及び通信ネットワーク9を介して他の表示装置2内のクライアント部20における通信制御部70との通信を制御する。データ管理部80は、操作データや画像データ等を管理する。 The communication control unit 70 controls communication with the communication control unit 70 in the client unit 20 in the same display device 2 and the communication control unit 70 in the client unit 20 in another display device 2 via the communication network 9. The data management unit 80 manages operation data, image data, and the like.

<読み込む画像とディスプレイのアスペクト比に応じた余白の色の決定に関する表示装置の機能>
続いて、図13を参照して、余白13の色の決定に関する表示装置2の機能について説明する。図13は、表示装置2が読み込む画像11とディスプレイ3のアスペクト比に応じた余白13の色の決定に関する表示装置2の機能を示す機能ブロック図の一例である。図13の表示装置は、図6に示した機能から一部が抽出された機能と、新たにアスペクト比比較部51、ディスプレイ方向検出部52、及び、色決定部53とを有している。また、画像記憶部55とアスペクト比記憶部54を有している。
<Display device function for determining the margin color according to the aspect ratio of the image to be read and the display>
Subsequently, with reference to FIG. 13, the function of the display device 2 regarding the determination of the color of the margin 13 will be described. FIG. 13 is an example of a functional block diagram showing the function of the display device 2 regarding the determination of the color of the margin 13 according to the aspect ratio of the image 11 read by the display device 2 and the display 3. The display device of FIG. 13 has a function partially extracted from the functions shown in FIG. 6, a aspect ratio comparison unit 51, a display direction detection unit 52, and a color determination unit 53. It also has an image storage unit 55 and an aspect ratio storage unit 54.

画像記憶部55には表示装置2が表示する画像11の画像データが記憶されている。画像11はファイル形式で保存されており、表示装置2はファイルに含まれる画像11を1ページずつ表示する。ユーザは任意のページを表示させることができる。画像記憶部55は、上記USBメモリ5だけでなく、クラウド上のサーバ、及び、NAS(Network Attached Storage)なども含む。表示装置2のRAM203又はSSD204が対応する場合もある。また、スマートフォンなどの携帯端末が記憶している画像データを近距離通信回路219(Bluetooth(登録商標)、Wi−Fi、NFC)などで受信してもよい。また、他の拠点の表示装置2が画像データを記憶している場合、画像記憶部55に他の拠点の表示装置2も含まれる。 The image storage unit 55 stores the image data of the image 11 displayed by the display device 2. The image 11 is stored in a file format, and the display device 2 displays the image 11 included in the file page by page. The user can display any page. The image storage unit 55 includes not only the USB memory 5 but also a server on the cloud, NAS (Network Attached Storage), and the like. The RAM 203 or SSD 204 of the display device 2 may correspond to this. Further, the image data stored in the mobile terminal such as a smartphone may be received by the short-range communication circuit 219 (Bluetooth (registered trademark), Wi-Fi, NFC) or the like. When the display device 2 of another base stores image data, the image storage unit 55 also includes the display device 2 of the other base.

なお、表示装置2は、同じ表示装置2が保存した画像11を表示する場合もあるし、異なる表示装置2が保存した画像11を保存する場合もある。また、同じ表示装置2又は異なる表示装置2が保存した画像11を表示する場合、保存時と表示時とでディスプレイ方向が異なる場合と同じ場合がある。 The display device 2 may display an image 11 saved by the same display device 2, or may save an image 11 saved by a different display device 2. Further, when displaying an image 11 saved by the same display device 2 or a different display device 2, the display direction may be different between the time of saving and the time of displaying.

また、画像記憶部55に記憶されている画像11は、表示装置2が取り込んだ画像11に限られず、任意の画像11が含まれる。例えば、任意のPDFファイル、カメラで撮像した画像、電子メールで送信された画像、ネットワークからダウンロードした画像などでもよい。 Further, the image 11 stored in the image storage unit 55 is not limited to the image 11 captured by the display device 2, and includes any image 11. For example, it may be an arbitrary PDF file, an image captured by a camera, an image transmitted by e-mail, an image downloaded from a network, or the like.

操作処理部26はユーザがUI画像に対し行った画像11(ファイル)の読み込み操作を受け付けて、ファイル処理部40に選択されたファイルを通知する。ファイル処理部40は画像記憶部55からユーザが選択したファイルを読み込んで、ファイルに含まれる文書データのアスペクト比をアスペクト比比較部51に通知する。なお、1つのファイル内の文書データの複数ページは同じアスペクト比である場合が多いが、仮に異なる場合、アスペクト比比較部51はページごとにアスペクト比を判断する。 The operation processing unit 26 accepts the operation of reading the image 11 (file) performed by the user on the UI image, and notifies the file processing unit 40 of the selected file. The file processing unit 40 reads a file selected by the user from the image storage unit 55, and notifies the aspect ratio comparison unit 51 of the aspect ratio of the document data included in the file. In many cases, a plurality of pages of document data in one file have the same aspect ratio, but if they are different, the aspect ratio comparison unit 51 determines the aspect ratio for each page.

アスペクト比は、ファイルのメタデータに記載の縦と横の解像度又はサイズから算出できる。例えば、PDFファイルには縦と横のサイズ(ミリメートル)がメタデータとして格納されている。また、画像データのフォーマットには、JPEG、TIFF、BMP、PNG、GIFなどがあるが、JPEGとTIFFにはEXIF(Exchangeable image file format)という規格のメタデータが付随していており、メタデータの中に縦と横の解像度又はサイズが格納されている。その他のフォーマットの画像にも縦と横の解像度又はサイズがメタデータに含まれている。 The aspect ratio can be calculated from the vertical and horizontal resolutions or sizes described in the file metadata. For example, the PDF file stores the vertical and horizontal sizes (millimeters) as metadata. In addition, image data formats include JPEG, TIFF, BMP, PNG, GIF, etc., but JPEG and TIFF are accompanied by metadata of the standard called EXIF (Exchangeable image file format). Vertical and horizontal resolutions or sizes are stored inside. Images in other formats also have vertical and horizontal resolutions or sizes in their metadata.

したがって、ファイル処理部40はファイルの本体まで読み込まなくてもアスペクト比を検出できる。なお、ファイルのメタデータにアスペクト比がそのまま記載されていてもよい。 Therefore, the file processing unit 40 can detect the aspect ratio without reading the main body of the file. The aspect ratio may be described as it is in the metadata of the file.

また、ディスプレイ方向検出部52は、現在のディスプレイ方向を検出する。図14は、ディスプレイ方向を説明する図である。図14(a)は横向きのディスプレイ方向を示し、図14(b)は縦向きのディスプレイ方向を示す。図14に示すように、ディスプレイ3は少なくとも90度回転できる。回転はユーザが行っても、モーターが行ってもよい。 Further, the display direction detection unit 52 detects the current display direction. FIG. 14 is a diagram illustrating a display direction. FIG. 14A shows a horizontal display direction, and FIG. 14B shows a vertical display direction. As shown in FIG. 14, the display 3 can be rotated at least 90 degrees. The rotation may be performed by the user or by the motor.

ディスプレイ方向検出部52は方向検知センサ225の検知結果に基づいて、ユーザが回転させたディスプレイ方向が横向きか又は縦向きかを検出する。ディスプレイ方向検出部52は検出したディスプレイ方向をアスペクト比比較部51に通知する。なお、表示装置2のディスプレイ3は方向が固定されていてもよく(ユーザが回転させる機構がない)、この場合、ディスプレイ方向は横向き又は縦向きに固定となる。 The display direction detection unit 52 detects whether the display direction rotated by the user is horizontal or vertical based on the detection result of the direction detection sensor 225. The display direction detection unit 52 notifies the aspect ratio comparison unit 51 of the detected display direction. The display 3 of the display device 2 may have a fixed direction (there is no mechanism for the user to rotate the display 3). In this case, the display direction is fixed to the horizontal direction or the vertical direction.

図13に戻って説明する。アスペクト比比較部51は、ファイル処理部40が通知したアスペクト比と、アスペクト比記憶部54に記憶されているアスペクト比を比較する。表1に示すように、アスペクト比記憶部54にはディスプレイ方向に対応づけて、アスペクト比が記憶されている。 It will be described back to FIG. The aspect ratio comparison unit 51 compares the aspect ratio notified by the file processing unit 40 with the aspect ratio stored in the aspect ratio storage unit 54. As shown in Table 1, the aspect ratio storage unit 54 stores the aspect ratio in association with the display direction.

Figure 2021051256

表1は、アスペクト比記憶部54に記憶されているアスペクト情報の一例である。アスペクト情報は、ディスプレイ方向に対応づけられたディスプレイ3のアスペクト比を有している。例えば、縦向きの場合のアスペクト比は9(W):16(H)であり、横向きの場合のアスペクト比は16(W):9(H)である。
Figure 2021051256

Table 1 is an example of the aspect information stored in the aspect ratio storage unit 54. The aspect information has the aspect ratio of the display 3 associated with the display direction. For example, the aspect ratio in the vertical orientation is 9 (W): 16 (H), and the aspect ratio in the horizontal orientation is 16 (W): 9 (H).

ディスプレイ3のアスペクト比はディスプレイ3の物理的な形状(縦横の解像度)で決まるため、ディスプレイ3の全体が画像の表示領域となる場合、アスペクト情報には表1に示すように2つのアスペクト比が登録されていればよい。しかし、例えば、ディスプレイ3の一部(表示領域)にのみ表示装置2が画像11を表示する場合であって、その表示領域のアスペクト比がディスプレイ3のアスペクト比と異なる場合、アスペクト情報には表示領域用のアスペクト比が記憶されている。この場合、表示領域ごとにディスプレイが横向きと縦向きの場合に対応づけて2つのアスペクト比が登録されている。 Since the aspect ratio of the display 3 is determined by the physical shape (vertical and horizontal resolution) of the display 3, when the entire display 3 is the display area of the image, the aspect information includes two aspect ratios as shown in Table 1. It only needs to be registered. However, for example, when the display device 2 displays the image 11 only on a part (display area) of the display 3, and the aspect ratio of the display area is different from the aspect ratio of the display 3, the aspect information is displayed. The aspect ratio for the area is stored. In this case, two aspect ratios are registered for each display area in association with the case where the display is in landscape orientation and portrait orientation.

また、表示装置2においてユーザが任意の表示領域を指定できる場合(ウィンドウのようにユーザが表示領域を作成できるような場合)、アスペクト比比較部51はOS(Operating System)から表示領域のアスペクト比を取得できる。 Further, when the user can specify an arbitrary display area in the display device 2 (when the user can create a display area like a window), the aspect ratio comparison unit 51 has an aspect ratio of the display area from the OS (Operating System). Can be obtained.

アスペクト比比較部51は、ディスプレイ方向に対応づけられているアスペクト比をアスペクト比記憶部54から読み出して、ファイル処理部40が通知したアスペクト比と比較する。アスペクト比比較部51は比較結果(一致、不一致)とディスプレイ方向を画像生成部34に通知する。また、アスペクト比が不一致の場合、アスペクト比比較部51は色決定要求を色決定部53に送出する。 The aspect ratio comparison unit 51 reads the aspect ratio associated with the display direction from the aspect ratio storage unit 54 and compares it with the aspect ratio notified by the file processing unit 40. The aspect ratio comparison unit 51 notifies the image generation unit 34 of the comparison result (match, mismatch) and the display direction. If the aspect ratios do not match, the aspect ratio comparison unit 51 sends a color determination request to the color determination unit 53.

なお、表示装置2のディスプレイ方向が横向き又は縦向きに固定の場合、アスペクト比記憶部54にはアスペクト比が1つのみ記憶されているので、アスペクト比比較部51はアスペクト比記憶部54のアスペクト比と、画像11のアスペクト比を比較する。 When the display direction of the display device 2 is fixed to be horizontal or vertical, only one aspect ratio is stored in the aspect ratio storage unit 54, so that the aspect ratio comparison unit 51 uses the aspect ratio of the aspect ratio storage unit 54. The ratio is compared with the aspect ratio of the image 11.

色決定部53は、ファイル処理部から画像11(ファイル内の1ページ)を取得して、画像11で使用されていない色を余白13の色に決定する。余白13の色は画像生成部34に通知される。 The color determination unit 53 acquires the image 11 (one page in the file) from the file processing unit, and determines the color not used in the image 11 as the color of the margin 13. The color of the margin 13 is notified to the image generation unit 34.

画像生成部34は、比較結果が一致の場合は、表示領域と同じ大きさに画像11を変倍して背景画像を生成する。比較結果が不一致の場合は、予め定められている位置(例えば上下方向、又は、左右方向の中央)に画像11を配置する。この場合、画像生成部34は画像11の長辺が表示領域の対応する辺の長さに一致するように画像11を変倍する。また、画像生成部34は表示領域のうち画像11が表示されない領域を余白13として、余白13の色を色決定部53が決定した色で表示する。 When the comparison results match, the image generation unit 34 generates a background image by scaling the image 11 to the same size as the display area. If the comparison results do not match, the image 11 is placed at a predetermined position (for example, in the vertical direction or in the center in the horizontal direction). In this case, the image generation unit 34 scales the image 11 so that the long side of the image 11 matches the length of the corresponding side of the display area. Further, the image generation unit 34 displays the color of the margin 13 as the color determined by the color determination unit 53, with the area in which the image 11 is not displayed as the margin 13.

<色の決定方法>
続いて、図15を用いて、色決定部53による色の決定方法を説明する。図15は画像11と含まれる色について説明する図である。説明の便宜上、画像11の縁を点線で示しているが実際にはこの点線は存在しない。画像11の各画素の色はRGBで定まる。例えば、白は(R,G,B)=(255,255,255)、黒は(R,G,B)=(0,0,0)、黄色は(R,G,B)=(255,255,0)などである。
<How to determine the color>
Subsequently, a method of determining a color by the color determining unit 53 will be described with reference to FIG. FIG. 15 is a diagram illustrating the image 11 and the colors included. For convenience of explanation, the edge of the image 11 is shown by a dotted line, but this dotted line does not actually exist. The color of each pixel of the image 11 is determined by RGB. For example, white is (R, G, B) = (255,255,255), black is (R, G, B) = (0,0,0), and yellow is (R, G, B) = (255,255). , 0) and so on.

色決定部53は、画像11が含む各画素ごとに色を抽出して、画像11で使われていない色を特定する。R、G、Bの階調が1画素当たり8bitだとすると色の種類は約1670万色なので、使用されていない色を探し出すことは容易である。色決定部53は、1670万色のリストの中から画像11の各画素で使用されている色を削除し、残りから色を選択すればよい。 The color determination unit 53 extracts a color for each pixel included in the image 11 and identifies a color not used in the image 11. Assuming that the gradation of R, G, and B is 8 bits per pixel, the types of colors are about 16.7 million colors, so it is easy to find unused colors. The color determination unit 53 may delete the color used in each pixel of the image 11 from the list of 16.7 million colors and select a color from the rest.

1画素ずつ判断すると時間がかかるため、色決定部53は画像11を減色処理してもよい。減色処理は、256×256×256色を例えば4×4×4に落とす場合、R,G,Bそれぞれについて,0から255の区間を,0から63,64から127,128から191,192から255の4つに分ける。色決定部53が各画素の値0〜255を0〜3に変換すると64色に減色できる。 Since it takes time to determine each pixel, the color determination unit 53 may perform color reduction processing on the image 11. In the color reduction processing, when reducing 256 × 256 × 256 colors to, for example, 4 × 4 × 4, the section from 0 to 255 is changed from 0 to 63, 64 to 127, 128 to 191, 192 for each of R, G, and B. Divide into 4 of 255. When the color determination unit 53 converts the values 0 to 255 of each pixel to 0 to 3, the color can be reduced to 64 colors.

代表的な色(以下、代表色という)をいくつか予め用意しておいてもよい。例えば、白色・黒色・灰色・赤色・青色・緑色・黄色・橙色・桃色・紫色・茶色・金色・銀色を代表色とする。図16は代表色をパレット状に示す図の一例である。色決定部53は、例えばこの12色のリストの中から画像11の各画素で使用されている色を削除し、残りから色を選択する。 Some representative colors (hereinafter referred to as representative colors) may be prepared in advance. For example, white, black, gray, red, blue, green, yellow, orange, pink, purple, brown, gold, and silver are typical colors. FIG. 16 is an example of a diagram showing representative colors in a palette. For example, the color determination unit 53 deletes the color used in each pixel of the image 11 from the list of 12 colors, and selects a color from the rest.

なお、画像11で使用されている色が代表色に含まれない場合が生じうる。このため、代表色のうち画像11で使用されている色との距離が閾値内の色を削除する。色同士の距離は例えばRGB色空間、Lab色空間、又はXYZ色空間など所定の色空間におけるユークリッド距離を指標とする。 In addition, there may be a case where the color used in the image 11 is not included in the representative color. Therefore, among the representative colors, the color whose distance from the color used in the image 11 is within the threshold value is deleted. The distance between colors uses the Euclidean distance in a predetermined color space such as RGB color space, Lab color space, or XYZ color space as an index.

画像11で使用されている色の数が多い場合、例えば、画像11が代表色を全て使用しているような場合、色決定部53は画像11の縁を含む所定範囲(以下、縁部という)のみから使用されていない色を決定するとよい。余白13と接するのは画像11の縁なので、余白13の色が画像11の縁部の色と異なっていれば、ユーザが画像11と余白13の境界を見分けることができる。 When the number of colors used in the image 11 is large, for example, when the image 11 uses all the representative colors, the color determination unit 53 includes a predetermined range including the edge of the image 11 (hereinafter, referred to as an edge portion). It is advisable to determine the unused color only from). Since it is the edge of the image 11 that comes into contact with the margin 13, if the color of the margin 13 is different from the color of the edge of the image 11, the user can distinguish the boundary between the image 11 and the margin 13.

図17は、画像11の縁部において使用されていない色を説明する図である。図17(a)は、画像11が縦向きでディスプレイ方向が横向きであるため、余白13と接するのは画像11の縦の縁部14aである。色決定部53は画像11の縦の縁部14aのみから使用されていない色を決定する。 FIG. 17 is a diagram illustrating colors not used at the edges of image 11. In FIG. 17A, since the image 11 is in the vertical direction and the display direction is in the horizontal direction, it is the vertical edge portion 14a of the image 11 that comes into contact with the margin 13. The color determining unit 53 determines an unused color only from the vertical edge portion 14a of the image 11.

図17(b)は、画像11が横向きでディスプレイ方向が縦向きであるため、余白13と接するのは画像11の横の縁部14bである。色決定部53は画像11の横の縁部14bのみから使用されていない色を決定する。 In FIG. 17B, since the image 11 is horizontally oriented and the display direction is vertically oriented, it is the horizontal edge portion 14b of the image 11 that comes into contact with the margin 13. The color determining unit 53 determines an unused color only from the horizontal edge portion 14b of the image 11.

こうすることで、画像11が使用している色数が多くても、使用していない色を代表色から見つけやすくなる。なお、縁部14a、14bのみから使用されていない色を決定する方法は、画像11の全体が代表色を全て使用しているかどうかを判断する前に採用してよい。 By doing so, even if the number of colors used in the image 11 is large, it becomes easy to find the unused colors from the representative colors. The method of determining the unused color from only the edges 14a and 14b may be adopted before determining whether or not the entire image 11 uses all the representative colors.

なお、縁部14a、14bは画像11の最外縁の1画素でよいが、画像11と余白13の境界を明確化するために、最外縁から数十〜数百画素程度の幅を縁部14a、14bとしてもよい。 The edge portions 14a and 14b may be one pixel at the outermost edge of the image 11, but in order to clarify the boundary between the image 11 and the margin 13, the edge portion 14a has a width of about several tens to several hundred pixels from the outermost edge. , 14b may be used.

縁部14a、14bのみから使用されていない色を決定できない場合は、代表色の範囲を広げるとよい。例えば
(i) 代表色の補色から、使用していない色を決定する。
(ii) 代表色の2つの組み合わせの混色から、使用していない色を決定する。
などが考えられる。
If it is not possible to determine an unused color from only the edges 14a and 14b, it is advisable to widen the range of representative colors. For example
(i) Determine the unused color from the complementary colors of the representative colors.
(ii) Determine the unused color from the mixture of the two representative colors.
And so on.

<画像の変倍>
図18は、画像11の変倍を説明する図である。図18(a)(b)ではディスプレイ3が横向きの場合を説明する。つまり、画像11が縦向き、ディスプレイ3が横向きの場合である。図18(a)に示す画像11の縦のサイズをH1、横のサイズをW1とする。また、図18(b)に示すディスプレイ3の縦のサイズをH2、横のサイズをW2とする。画像11をディスプレイ3内に収めるには、画像11の長い方の辺(図ではH1)をディスプレイ3内に収める必要がある。このためH2/H1を比率として、画像生成部34は、画像11を変倍する。
変倍後の画像11の縦のサイズH2=H1×H2/H1
変倍後の画像11の横のサイズWa=W1×H2/H1
図18(c)(d)ではディスプレイ3が縦向きの場合を説明する。つまり、画像11が横向き、ディスプレイが縦向きの場合である。図18(c)に示す画像11の縦のサイズをH3、横のサイズをW3とする。また、図18(d)に示すディスプレイ3の縦のサイズをH4、横のサイズをW4とする。画像11をディスプレイ3内に収めるには、画像11の長い方の辺(図ではW3)をディスプレイ3内に収める必要がある。このためW4/W3を比率として、画像生成部34は、画像11を変倍する。
変倍後の画像11の縦のサイズHa=H3×W4/W3
変倍後の画像11の横のサイズW4=W3×W4/W3
図19は、余白13の位置の決定方法を説明する図である。図19では画像11をディスプレイ3の中央に配置する場合を説明する。したがって、余白13は画像11の左右又は上下に生じる。
<Scale of image>
FIG. 18 is a diagram illustrating the scaling of the image 11. In FIGS. 18A and 18B, a case where the display 3 is oriented sideways will be described. That is, the image 11 is in the vertical orientation and the display 3 is in the horizontal orientation. The vertical size of the image 11 shown in FIG. 18A is H1, and the horizontal size is W1. Further, the vertical size of the display 3 shown in FIG. 18B is H2, and the horizontal size is W2. In order to fit the image 11 in the display 3, it is necessary to fit the longer side (H1 in the figure) of the image 11 in the display 3. Therefore, the image generation unit 34 scales the image 11 with H2 / H1 as the ratio.
Vertical size of image 11 after scaling H2 = H1 × H2 / H1
Horizontal size of image 11 after scaling Wa = W1 × H2 / H1
In FIGS. 18C and 18D, a case where the display 3 is oriented vertically will be described. That is, the image 11 is in landscape orientation and the display is in portrait orientation. The vertical size of the image 11 shown in FIG. 18C is H3, and the horizontal size is W3. Further, the vertical size of the display 3 shown in FIG. 18D is H4, and the horizontal size is W4. In order to fit the image 11 in the display 3, it is necessary to fit the longer side (W3 in the figure) of the image 11 in the display 3. Therefore, the image generation unit 34 scales the image 11 with W4 / W3 as the ratio.
Vertical size of image 11 after scaling Ha = H3 × W4 / W3
Horizontal size of image 11 after scaling W4 = W3 x W4 / W3
FIG. 19 is a diagram illustrating a method of determining the position of the margin 13. FIG. 19 describes a case where the image 11 is arranged in the center of the display 3. Therefore, the margins 13 are generated on the left, right, top and bottom of the image 11.

図19(a)はディスプレイ3が横向きの場合を示す。図18で算出したWaを使用すると、余白13の位置はディスプレイの左端から(W2−Wa)/2までの領域と、ディスプレイの右端から(W2−Wa)/2までの領域となる。 FIG. 19A shows a case where the display 3 is oriented sideways. Using the Wa calculated in FIG. 18, the positions of the margins 13 are the area from the left edge of the display to (W2-Wa) / 2 and the area from the right edge of the display to (W2-Wa) / 2.

図19(b)はディスプレイが縦向きの場合を示す。図18で算出したHaを使用すると、余白13の位置はディスプレイの上端から(H4−Ha)/2までの領域と、下端から(H4−Ha)/2までの領域となる。 FIG. 19B shows a case where the display is oriented vertically. Using Ha calculated in FIG. 18, the position of the margin 13 is the area from the upper end of the display to (H4-Ha) / 2 and the area from the lower end to (H4-Ha) / 2.

画像生成部34はこのようにして位置が決定される余白13を、決定された色で表示する。なお、図19では画像11の位置をディスプレイ3の中央としたが、余白13の位置は、図19(a)のように横向きのディスプレイ3では左端又は右端でもよい。図19(b)のように縦向きのディスプレイでは上端又は下端でもよい。 The image generation unit 34 displays the margin 13 whose position is determined in this way in the determined color. Although the position of the image 11 is set to the center of the display 3 in FIG. 19, the position of the margin 13 may be the left end or the right end of the sideways display 3 as shown in FIG. 19A. In a portrait display as shown in FIG. 19B, the upper end or the lower end may be used.

また、図19(a)(b)のいずれの場合でも、余白13の位置は、ユーザが指定できてよい。例えば、設定画面に表示される「上」「下」「中央」から選択する。あるいは、図19(a)(b)のように表示装置2が画像11を例えば中央に表示後、ユーザが手で画像11を動かすことができるとよい。 Further, in any of the cases of FIGS. 19A and 19B, the position of the margin 13 may be specified by the user. For example, select from "top", "bottom", and "center" displayed on the setting screen. Alternatively, as shown in FIGS. 19A and 19B, it is preferable that the display device 2 displays the image 11 in the center, for example, and then the user can move the image 11 by hand.

なお、画像生成部34は常に余白13を決定した色で表示しなくてもよい。例えば、定期的に色決定部53が決定した色で表示してもよい。また、例えば余白13のダブルタップなどユーザ操作に応じて色決定部53が決定した色で画像生成部34が余白13を表示してもよい。再度のダブルタップで色は元に戻る。 The image generation unit 34 does not always have to display the margin 13 in the determined color. For example, it may be displayed in a color determined by the color determining unit 53 on a regular basis. Further, the image generation unit 34 may display the margin 13 with a color determined by the color determination unit 53 according to a user operation such as double tapping the margin 13. Double tap again to restore the color.

また、本実施例では余白13を色決定部53が決定した色で均一に表示すると説明したが、余白13の外周のみを色決定部53が決定した色で表示してもよい。また、余白13と画像11の境界に線状に色決定部53が決定した色を表示してもよい。また、余白13は色決定部53が決定した色で斜線が引かれてもよいし、グラデーションが施されてもよい。 Further, in the present embodiment, it has been described that the margin 13 is uniformly displayed in the color determined by the color determining unit 53, but only the outer periphery of the margin 13 may be displayed in the color determined by the color determining unit 53. Further, the color determined by the color determining unit 53 may be displayed linearly at the boundary between the margin 13 and the image 11. Further, the margin 13 may be shaded with a color determined by the color determining unit 53, or may be given a gradation.

<動作手順>
図20は、表示装置2が読み込む画像11とディスプレイ3のアスペクト比に応じて表示領域の余白13の色を決定する手順を示すフローチャート図の一例である。
<Operation procedure>
FIG. 20 is an example of a flowchart showing a procedure for determining the color of the margin 13 of the display area according to the aspect ratio of the image 11 read by the display device 2 and the display 3.

まず、ユーザが画像11の読み込む操作を行うため、操作処理部26が画像11(ファイル)の読み取り操作を受け付ける(S1)。ファイル処理部40が指定された画像11を読み込む(S2)。これにより、画像11のアスペクト比が検出される。 First, since the user performs the operation of reading the image 11, the operation processing unit 26 accepts the operation of reading the image 11 (file) (S1). The file processing unit 40 reads the designated image 11 (S2). As a result, the aspect ratio of the image 11 is detected.

一方、ディスプレイ方向検出部52が現在のディスプレイ方向を検出する(S3)。ディスプレイ方向は、リアルタイムに検出してもよいし、最後に検出したディスプレイ方向を保持していてもよい。ユーザが設定したディスプレイ方向を使用してもよい。 On the other hand, the display direction detection unit 52 detects the current display direction (S3). The display orientation may be detected in real time, or the last detected display orientation may be retained. The display orientation set by the user may be used.

次に、アスペクト比比較部51が画像11のアスペクト比と、ディスプレイ方向に応じてアスペクト比記憶部54から読み取ったアスペクト比を比較する(S4)。例えば、画像11のアスペクト比がW1:H1で、アスペクト比記憶部54から読み取ったアスペクト比がW2:H2の場合、
W2/H2−α < W1/H1 < W2/H2+α
を満たす場合はアスペクト比が同じであり、満たさない場合は異なると判断する。
Next, the aspect ratio comparison unit 51 compares the aspect ratio of the image 11 with the aspect ratio read from the aspect ratio storage unit 54 according to the display direction (S4). For example, when the aspect ratio of the image 11 is W1: H1 and the aspect ratio read from the aspect ratio storage unit 54 is W2: H2,
W2 / H2-α <W1 / H1 <W2 / H2 + α
If it satisfies, the aspect ratio is the same, and if it does not satisfy, it is judged to be different.

αは許容誤差であり、アスペクト比が完全に一致しなくても、アスペクト比が同じであると見なすことができる範囲を示す。許容誤差を設けることで全画面表示する機会を多くすることができる。なお、αはH2/W2の数%とすればよいが、例えばユーザが任意に設定してもよい。例えば、W1:H1が9:16、W2:H2が4:3、αを5%とすると、
4/3−0.067 < 16/9は成り立つが、 16/9 > 4/3+0.067 なので、アスペクト比が異なると判断される。
α is a margin of error, and indicates a range in which the aspect ratios can be considered to be the same even if the aspect ratios do not exactly match. By providing a margin of error, it is possible to increase the chances of full-screen display. Note that α may be a few percent of H2 / W2, but may be arbitrarily set by the user, for example. For example, if W1: H1 is 9:16, W2: H2 is 4: 3, and α is 5%.
4 / 3-0.067 <16/9 holds, but 16/9> 4/3 + 0.067, so it is judged that the aspect ratios are different.

アスペクト比が異なる場合(S5のNo)、色決定部53が、画像11で使用されていない色を決定する(S6)。例えば、画像11の全体で使用されていない色を代表色から探し、見つからない場合は縁部14a、14bで使用されていない色を代表色から探し、見つからない場合は代表色の範囲を広げていく。 When the aspect ratios are different (No in S5), the color determination unit 53 determines a color not used in the image 11 (S6). For example, a color that is not used in the entire image 11 is searched from the representative color, if it is not found, a color that is not used in the edges 14a and 14b is searched from the representative color, and if it is not found, the range of the representative color is expanded. I will go.

次に、画像生成部34は例えばディスプレイ3の中央にファイル処理部40が読み取った画像11を配置する(S7)。画像11の長い方の辺が、ディスプレイ3側の対応する辺の長さに一致するように、画像11を変倍する(拡大又は縮小する)。 Next, the image generation unit 34 arranges the image 11 read by the file processing unit 40 in the center of the display 3, for example (S7). The image 11 is scaled (enlarged or reduced) so that the longer side of the image 11 matches the length of the corresponding side on the display 3 side.

また、画像生成部34は余白13の色を、ステップS6で決定した色に変更する(S8)。 Further, the image generation unit 34 changes the color of the margin 13 to the color determined in step S6 (S8).

一方、アスペクト比が同じ場合(S5のYes)、画像生成部34がディスプレイの全面にファイル処理部40が読み取った画像11を配置する(S9)。この場合も、画像11を変倍する場合が多い。 On the other hand, when the aspect ratios are the same (Yes in S5), the image generation unit 34 arranges the image 11 read by the file processing unit 40 on the entire surface of the display (S9). In this case as well, the image 11 is often scaled.

画像生成部34は背景画像をストローク画像などと重畳して、ディスプレイ3に表示する(S10)。 The image generation unit 34 superimposes the background image on the stroke image or the like and displays it on the display 3 (S10).

なお、図20の処理はファイルを読み取る表示装置2の処理を説明しているが、図4のように複数の表示装置2が遠隔会議のための通信を行う場合、画像11が他の通信端末との間で共有される。このため、ファイルを読み取った表示装置2は図20の処理で決定した代表色を会議中の他の表示装置2に送信する。これにより、他の表示装置2は代表色を決定しなくても、画像11と表示領域(余白13)の境界を明確にすることができる。 The process of FIG. 20 describes the process of the display device 2 for reading a file. However, when a plurality of display devices 2 perform communication for a remote conference as shown in FIG. 4, the image 11 is another communication terminal. Shared with. Therefore, the display device 2 that has read the file transmits the representative color determined in the process of FIG. 20 to the other display device 2 during the conference. As a result, the other display device 2 can clarify the boundary between the image 11 and the display area (margin 13) without determining the representative color.

<主な効果>
以上説明したように、本実施例の表示装置2は、余白13の色が画像11で使用されている色に応じて決定されているため、ユーザは画像11と表示領域(余白13)の境界を容易に判別できる。
<Main effect>
As described above, in the display device 2 of the present embodiment, the color of the margin 13 is determined according to the color used in the image 11, so that the user can use the boundary between the image 11 and the display area (margin 13). Can be easily identified.

1つのファイルが複数ページを含んでいる場合があるが、画像11とディスプレイのアスペクト比が異なるページが複数ある場合、実施例1の方法ではページごとに余白13の色が変わる可能性がある(一貫性がなくなる)。ユーザとしては、ページを変更するたびに領域の色が変わるので、違和感を生じさせるおそれがある。 One file may contain a plurality of pages, but when there are a plurality of pages having different aspect ratios of the image 11 and the display, the color of the margin 13 may change for each page in the method of the first embodiment (the color of the margin 13 may change for each page (). Inconsistent). As a user, the color of the area changes each time the page is changed, which may cause a sense of discomfort.

そこで、本実施例では表示装置2が、ファイルに含まれる各ページの画像11を表示する前に各ページの画像11で使用されている色を調べ、どのページでも使用されていない色を余白13の色に決定する。表示装置2が各ページの画像11を表示する場合、全ページ共通の色で余白13を表示する。 Therefore, in this embodiment, the display device 2 examines the colors used in the image 11 of each page before displaying the image 11 of each page included in the file, and sets the color not used in any page as the margin 13. Decide on the color of. When the display device 2 displays the image 11 of each page, the margin 13 is displayed in a color common to all pages.

本実施例においては、上記の実施例にて説明した図5のハードウェア構成図、及び、図6又は図13に示した機能ブロック図を援用できるものとして説明する。 In this embodiment, the hardware configuration diagram of FIG. 5 and the functional block diagram shown in FIG. 6 or FIG. 13 described in the above embodiment will be described as being applicable.

<複数ページで使用されていない色の決定>
図21は、代表色のうち各ページに共通に使用されていない色の決定方法を説明する図の一例である。図21ではページに対応づけて使用されている代表色にチェックマークが設定されている。したがって、チェックマークがある色は画像11で使用されているので、色決定部53は、全てのページで使用されていない色を探せばよい。図21では黄色と金色が使用されていないので、色決定部53は黄色又は金色を全ページに共通の余白13の色に決定する。
<Determining colors that are not used on multiple pages>
FIG. 21 is an example of a diagram illustrating a method of determining a color that is not commonly used on each page among the representative colors. In FIG. 21, a check mark is set for the representative color used in association with the page. Therefore, since the color with the check mark is used in the image 11, the color determination unit 53 may search for a color that is not used in all the pages. Since yellow and gold are not used in FIG. 21, the color determining unit 53 determines yellow or gold as the color of the margin 13 common to all pages.

<動作手順>
図22は、表示装置2が読み込む画像11とディスプレイ3のアスペクト比に応じて表示領域の余白13の色を決定する手順を示すフローチャート図の一例である。なお、図22の説明では図20との相違を説明する。
<Operation procedure>
FIG. 22 is an example of a flowchart showing a procedure for determining the color of the margin 13 of the display area according to the aspect ratio of the image 11 read by the display device 2 and the display 3. In the description of FIG. 22, the difference from FIG. 20 will be described.

図22では、ステップS2でファイル処理部40がファイルを読み込みと、アスペクト比比較部51が、ディスプレイとアスペクト比が異なる画像がファイル内に複数あるか否かを判断する(S101)。 In FIG. 22, when the file processing unit 40 reads the file in step S2, the aspect ratio comparison unit 51 determines whether or not there are a plurality of images having different aspect ratios from the display in the file (S101).

ディスプレイ3とアスペクト比が異なる画像がファイル内に複数ある場合、ページごとに余白13の色が変わるおそれがあるため、色決定部53が図21に示したように各ページで使用されてない代表色を決定する(S102)。なお、使用されていない色を判断するページは、ディスプレイ3とアスペクト比が異なる画像11を含むページだけでよい。 When there are a plurality of images having different aspect ratios from the display 3 in the file, the color of the margin 13 may change for each page. Therefore, as shown in FIG. 21, the color determination unit 53 is not used on each page. The color is determined (S102). The page for determining the unused color may be only the page including the image 11 having an aspect ratio different from that of the display 3.

ディスプレイ3とアスペクト比が異なる画像がファイル内に複数ない場合(1ページもないか又は1ページだけある場合)は、実施例1の図20の処理が実行される。 When there are not a plurality of images having an aspect ratio different from that of the display 3 in the file (when there is no page or only one page), the process of FIG. 20 of the first embodiment is executed.

以下は、ページの切り替えごとに実行される(S103)。ファイルを読み込んだ時はページの切り替えと判断される。以降の処理の流れは図22と同様であるが、ステップS6−2では、ステップS102で色決定部53が決定した共通に使用されていない色を色決定部53が採用する。 The following is executed every time the page is switched (S103). When the file is read, it is judged that the page is switched. The subsequent processing flow is the same as in FIG. 22, but in step S6-2, the color determination unit 53 adopts a color that is not commonly used and is determined by the color determination unit 53 in step S102.

こうすることで、ファイル内に画像11とディスプレイ3のアスペクト比が異なるページが複数あっても、ページごとに余白13の色が変わることを抑制できる。 By doing so, even if there are a plurality of pages having different aspect ratios of the image 11 and the display 3 in the file, it is possible to suppress the color of the margin 13 from changing for each page.

なお、図4のように複数の表示装置2が遠隔会議のための通信を行う場合、実施例1と同様に、ファイルを読み取った表示装置2はステップS102で決定した代表色を会議中の他の表示装置2に送信する。他の表示装置2は、ディスプレイ3とアスペクト比が異なる画像11を表示する場合に、余白13を代表色で表示する。 When a plurality of display devices 2 communicate for a remote conference as shown in FIG. 4, the display device 2 that has read the file uses the representative color determined in step S102 during the conference as in the case of the first embodiment. Is transmitted to the display device 2. The other display device 2 displays the margin 13 in a representative color when displaying the image 11 having an aspect ratio different from that of the display 3.

本実施例では、ユーザが画像11の外部(つまり余白13)に書き込みした場合、書き込みした範囲に応じて余白13を縮小する表示装置2について説明する。表示装置2が画像11の範囲のみを取り込んだり、印刷したりする場合に、画像11の範囲外の手書きデータを保存したり画像11と手書きデータを印刷したりすることができる。 In this embodiment, when the user writes on the outside of the image 11 (that is, the margin 13), the display device 2 that reduces the margin 13 according to the written range will be described. When the display device 2 captures or prints only the range of the image 11, the handwritten data outside the range of the image 11 can be saved or the image 11 and the handwritten data can be printed.

本実施例においては、上記の実施例にて説明した図5のハードウェア構成図、及び、図6又は図13に示した機能ブロック図を援用できるものとして説明する。 In this embodiment, the hardware configuration diagram of FIG. 5 and the functional block diagram shown in FIG. 6 or FIG. 13 described in the above embodiment will be described as being applicable.

本実施例では、画像生成部34が、手書きされたストロークの座標に応じて余白13を小さくする。また、ページ処理部37が余白13を除いて手書きデータと画像11を取り込む。 In this embodiment, the image generation unit 34 reduces the margin 13 according to the coordinates of the handwritten stroke. Further, the page processing unit 37 takes in the handwritten data and the image 11 except for the margin 13.

図23は、画像生成部34がストロークの座標に応じて小さくした余白13を説明する図である。図23(a)はディスプレイ3が横向きの場合を示し、図23(b)はディスプレイ3が縦向きの場合を示す。図23(a)(c)では、ユーザが「ABC」と手書きしたが、一部が余白13と重畳している。 FIG. 23 is a diagram illustrating a margin 13 reduced by the image generation unit 34 according to the coordinates of the stroke. FIG. 23 (a) shows a case where the display 3 is oriented horizontally, and FIG. 23 (b) shows a case where the display 3 is oriented vertically. In FIGS. 23A and 23C, the user handwritten "ABC", but a part of the handwriting is superimposed on the margin 13.

画像生成部34は、手書きデータが余白13と重ならないように余白13を小さくする。図23(b)(d)に示すように、余白13が小さくなることで、手書きデータが余白13に重ならなくなる。 The image generation unit 34 reduces the margin 13 so that the handwritten data does not overlap with the margin 13. As shown in FIGS. 23 (b) and 23 (d), the handwritten data does not overlap with the margin 13 because the margin 13 becomes small.

画像生成部34は、図示するようにX,Y座標を取り、ディスプレイ3が横向きの場合、ディスプレイ3の左端から最も左端のストロークの座標Xまでを余白13とし、ディスプレイ3の右端から最も右端のストロークの座標Xまでを余白13とする。なお、余白13が元のサイズよりも大きくなる(画像11の範囲が元よりも小さくなる)ことはない。 The image generation unit 34 takes X and Y coordinates as shown, and when the display 3 is in landscape orientation , the margin 13 is set from the left end of the display 3 to the leftmost stroke coordinate X left , and the right end to the rightmost end of the display 3. The margin 13 is set to the right of the coordinate X of the stroke of. The margin 13 does not become larger than the original size (the range of the image 11 becomes smaller than the original size).

同様に、ディスプレイ3が縦向きの場合、ディスプレイ3の上端から最も上端のストロークの座標Yまでを余白13として、ディスプレイ3の下端から最も下端のストロークの座標Yまでを余白13とする。この場合も、余白13が元のサイズよりも大きくなる(画像11の範囲が元よりも小さくなる)ことはない。 Similarly, the display 3 is in vertical orientation, as the margin 13 until the most upper end on the coordinate Y of the stroke from the top of the display 3, the up-coordinate Y of a most bottom end of the stroke from the bottom of the display 3 and the margin 13. In this case as well, the margin 13 does not become larger than the original size (the range of the image 11 becomes smaller than the original size).

ページ処理部37は画像11の範囲と余白13が小さくなって生じた拡張部分15を取り込み、取り込み画像として保存する。 The page processing unit 37 captures the extended portion 15 generated by reducing the range of the image 11 and the margin 13 and saves it as a captured image.

図24は、余白13のサイズの変更と画像の取り込み手順を示すフローチャート図の一例である。図24の処理は余白13の表示後にスタートする。 FIG. 24 is an example of a flowchart showing a procedure for changing the size of the margin 13 and capturing an image. The process of FIG. 24 starts after the margin 13 is displayed.

画像生成部34はディスプレイ3にストロークが追加されたか否かを判断する(S201)。ストロークの追加はストローク処理部32から通知される。 The image generation unit 34 determines whether or not a stroke has been added to the display 3 (S201). The stroke processing unit 32 notifies the addition of the stroke.

ストロークが追加された場合、画像生成部34はストロークの座標の左端と右端(ディスプレイが横向きの場合)又は上端と下端(ディスプレイが縦向きの場合)まで余白13を小さくする(S202)。 When a stroke is added, the image generation unit 34 reduces the margin 13 to the left end and the right end (when the display is oriented horizontally) or the upper end and the lower end (when the display is oriented vertically) of the coordinates of the stroke (S202).

ページ処理部37は画像11の取り込み操作が入力されたか否かを判断する(S203)。取り込み操作は操作処理部26から通知される。取り込み操作だけでなく印刷操作が検出されてもよい。 The page processing unit 37 determines whether or not the capture operation of the image 11 has been input (S203). The import operation is notified from the operation processing unit 26. Not only the import operation but also the print operation may be detected.

取り込み操作が入力された場合、ページ処理部37は余白13を除く範囲を取り込み範囲として手書きデータと画像11を取り込む(S204)。すなわち、余白13を除く取り込み範囲の取り込み画像を生成する。印刷操作の場合は表示装置2が取り込み画像を印刷装置に送信する。 When the capture operation is input, the page processing unit 37 captures the handwritten data and the image 11 with the range excluding the margin 13 as the capture range (S204). That is, a captured image in the captured range excluding the margin 13 is generated. In the case of a print operation, the display device 2 transmits the captured image to the printing device.

<主な効果>
本実施例によれば、ユーザが書き込みした範囲に応じて余白13を縮小し、余白13を除く範囲が取り込まれるので、ユーザは手書きするだけで書き込みできる範囲と取り込む範囲を増やすことができる。
<Main effect>
According to this embodiment, the margin 13 is reduced according to the range written by the user, and the range excluding the margin 13 is captured. Therefore, the user can increase the range that can be written and the range that can be captured only by handwriting.

本実施例では画像を投影することで表示する表示装置について説明する。プロジェクターのように映像を投影する装置では、投影する映像又はその一部の表示領域のアスペクト比が画像11と同じかどうかが判断される。余白13の色の処理については実施例1〜3と同様でよい。 In this embodiment, a display device that displays by projecting an image will be described. In a device that projects an image such as a projector, it is determined whether or not the aspect ratio of the projected image or a part of the display area is the same as that of the image 11. The treatment of the color of the margin 13 may be the same as in Examples 1 to 3.

<<表示装置の構成の別の例1>>
本実施形態の表示装置は大型のタッチパネルを有するものとして説明されているが、表示装置はタッチパネルを有するものに限られない。
<< Another example of display device configuration 1 >>
Although the display device of the present embodiment is described as having a large touch panel, the display device is not limited to the one having a touch panel.

図25は、表示装置の他の構成例を示す図である。図25では、通常のホワイトボード413の上辺にプロジェクター411が設置されている。このプロジェクター411が表示装置に相当する。通常のホワイトボード413とは、タッチパネルと一体のフラットパネルディスプレイではなく、ユーザがマーカーで直接、手書きするホワイトボードである。なお、ホワイトボードは黒板でもよく、映像を投影するだけの広さの平面であればよい。 FIG. 25 is a diagram showing another configuration example of the display device. In FIG. 25, the projector 411 is installed on the upper side of the normal whiteboard 413. This projector 411 corresponds to a display device. The normal whiteboard 413 is not a flat panel display integrated with a touch panel, but a whiteboard that the user directly handwrites with a marker. The whiteboard may be a blackboard, and may be a flat surface large enough to project an image.

プロジェクター411は超短焦点の光学系を有しており、10cm程度から歪みの少ない映像をホワイトボード413に投影できる。この映像は、無線又は有線で接続されたPC400ー1から送信されてもよいし、プロジェクター411が記憶していてもよい。 The projector 411 has an ultra-short focus optical system, and can project an image with little distortion from about 10 cm onto the whiteboard 413. This image may be transmitted from the PC 400-1 connected wirelessly or by wire, or may be stored in the projector 411.

ユーザは専用の電子ペン2501を使ってホワイトボード413に手書きする。電子ペン2501は、ユーザが手書きのためにホワイトボード413に押しつけるとスイッチがONになり発光する発光部を例えば先端部に有している。光の波長は近赤外や赤外なのでユーザの目には見えない。プロジェクター411はカメラを有しており、発光部を撮像して画像を解析し電子ペン2501の方向を特定する。また、電子ペン2501は発光と共に音波を発信しており、プロジェクター411は音波の到達時間により距離を算出する。方向と距離により電子ペン2501の位置を特定できる。電子ペン2501の位置にはストロークが描画(投影)される。 The user writes on the whiteboard 413 using a dedicated electronic pen 2501. The electronic pen 2501 has, for example, a tip portion that emits light when the user presses it against the whiteboard 413 for handwriting and the switch is turned on. Since the wavelength of light is near infrared or infrared, it is invisible to the user's eyes. The projector 411 has a camera, captures a light emitting unit, analyzes the image, and identifies the direction of the electronic pen 2501. Further, the electronic pen 2501 emits sound waves together with light emission, and the projector 411 calculates the distance from the arrival time of the sound waves. The position of the electronic pen 2501 can be specified by the direction and the distance. A stroke is drawn (projected) at the position of the electronic pen 2501.

プロジェクター411はメニュー430を投影するので、ユーザが電子ペン2501でボタンを押下すると、プロジェクター411が電子ペン2501の位置とスイッチのON信号により押下されたボタンを特定する。例えば、保存ボタン431が押下されると、ユーザが手書きしたストローク(座標の集合)がプロジェクター411で保存される。プロジェクター411は、予め定められたサーバ412又はUSBメモリ5等に手書き情報を保存する。手書き情報はページごとに保存されている。画像データではなく座標のまま保存されるので、ユーザが再編集することができる。ただし、本実施形態では操作コマンドを手書きで呼び出せるのでメニュー430は表示されなくてもよい。 Since the projector 411 projects the menu 430, when the user presses a button with the electronic pen 2501, the projector 411 identifies the pressed button by the position of the electronic pen 2501 and the ON signal of the switch. For example, when the save button 431 is pressed, the stroke (set of coordinates) handwritten by the user is saved by the projector 411. The projector 411 stores handwritten information in a predetermined server 412, a USB memory 5, or the like. Handwritten information is stored page by page. Since the coordinates are saved instead of the image data, the user can re-edit them. However, in the present embodiment, since the operation command can be called by hand, the menu 430 does not have to be displayed.

<<表示装置の構成の別の例2>>
図26は、表示装置の他の構成例を示す図である。図26の例では、表示装置として、端末装置600、画像投影装置700A、及び、ペン動作検出装置810を有する。
<< Another example of display device configuration 2 >>
FIG. 26 is a diagram showing another configuration example of the display device. In the example of FIG. 26, the display device includes a terminal device 600, an image projection device 700A, and a pen motion detection device 810.

端末装置600は、画像投影装置700A及びペン動作検出装置810と有線で接続されている。画像投影装置700Aは、端末装置600により入力された画像データをスクリーン800に投影させる。 The terminal device 600 is wiredly connected to the image projection device 700A and the pen motion detection device 810. The image projection device 700A projects the image data input by the terminal device 600 onto the screen 800.

ペン動作検出装置810は、電子ペン820と通信を行っており、スクリーン800の近傍における電子ペン820の動作を検出する。具体的には、電子ペン820は、スクリーン800上において、電子ペン820が示している点を示す座標情報を検出し、端末装置600へ送信する。 The pen motion detection device 810 communicates with the electronic pen 820 and detects the motion of the electronic pen 820 in the vicinity of the screen 800. Specifically, the electronic pen 820 detects coordinate information indicating a point indicated by the electronic pen 820 on the screen 800 and transmits the coordinate information to the terminal device 600.

端末装置600は、ペン動作検出装置810から受信した座標情報に基づき、電子ペン820によって入力されるストローク画像の画像データを生成し、画像投影装置700Aによってストローク画像をスクリーン800に描画させる。 The terminal device 600 generates image data of a stroke image input by the electronic pen 820 based on the coordinate information received from the pen motion detection device 810, and causes the image projection device 700A to draw the stroke image on the screen 800.

また、端末装置600は、画像投影装置700Aに投影させている背景画像と、電子ペン820によって入力されたストローク画像とを合成した重畳画像を示す重畳画像データを生成する。 Further, the terminal device 600 generates superimposed image data showing a superimposed image in which the background image projected on the image projection device 700A and the stroke image input by the electronic pen 820 are combined.

<<表示装置の構成の別の例3>>
図27は、表示装置の構成例を示す図である。図27の例では、表示装置として、端末装置600とディスプレイ800Aと、ペン動作検出装置810とを有する。
<< Another example of display device configuration 3 >>
FIG. 27 is a diagram showing a configuration example of the display device. In the example of FIG. 27, the display device includes a terminal device 600, a display 800A, and a pen motion detection device 810.

ペン動作検出装置810は、ディスプレイ800Aの近傍に配置され、ディスプレイ800A上に、電子ペン820Aが示している点を示す座標情報を検出し、端末装置600へ送信する。なお、図27の例では、電子ペン820Aは、端末装置600によってUSBコネクタを介して充電されても良い。 The pen motion detection device 810 is arranged in the vicinity of the display 800A, detects coordinate information indicating a point indicated by the electronic pen 820A on the display 800A, and transmits the coordinate information to the terminal device 600. In the example of FIG. 27, the electronic pen 820A may be charged by the terminal device 600 via the USB connector.

端末装置600は、ペン動作検出装置810から受信した座標情報に基づき、電子ペン820Aによって入力されるストローク画像の画像データを生成し、ディスプレイ800Aに表示させる。 The terminal device 600 generates image data of a stroke image input by the electronic pen 820A based on the coordinate information received from the pen motion detection device 810, and displays the image data on the display 800A.

<<表示装置の構成の別の例4>>
図28は、表示装置の構成例を示す図である。図28の例では、表示装置として、端末装置600と、画像投影装置700Aとを有する。
<< Another example of display device configuration 4 >>
FIG. 28 is a diagram showing a configuration example of the display device. In the example of FIG. 28, the display device includes a terminal device 600 and an image projection device 700A.

端末装置600は、電子ペン820Bと無線通信(Bluetooth(登録商標)等)を行って、スクリーン800上において電子ペン820Bが示す点の座標情報を受信する。そして、端末装置600は、受信した座標情報に基づき、電子ペン820Bにより入力されるストローク画像の画像データを生成し、画像投影装置700Aにストローク画像を投影させる。 The terminal device 600 performs wireless communication (Bluetooth (registered trademark), etc.) with the electronic pen 820B, and receives the coordinate information of the point indicated by the electronic pen 820B on the screen 800. Then, the terminal device 600 generates image data of the stroke image input by the electronic pen 820B based on the received coordinate information, and causes the image projection device 700A to project the stroke image.

また、端末装置600は、画像投影装置700Aに投影させている背景画像と、電子ペン820によって入力されたストローク画像とを合成した重畳画像を示す重畳画像データを生成する。 Further, the terminal device 600 generates superimposed image data showing a superimposed image in which the background image projected on the image projection device 700A and the stroke image input by the electronic pen 820 are combined.

以上のように、上記した各実施形態は、様々なシステム構成において適用することができる。 As described above, each of the above-described embodiments can be applied in various system configurations.

<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
Although the best mode for carrying out the present invention has been described above with reference to examples, the present invention is not limited to these examples, and various modifications are made without departing from the gist of the present invention. And substitutions can be made.

例えば、本実施形態では、電子黒板として使用できる表示装置を説明したが、表示装置は画像を表示できればよく、例えばデジタルサイネージなどでもよい。 For example, in the present embodiment, a display device that can be used as an electronic blackboard has been described, but the display device may be any display device as long as it can display an image, for example, digital signage.

また、本実施形態では電子黒板を一例として説明したが、タッチパネルを有する情報処理装置であれば好適に適用できる。タッチパネルを搭載した情報処理装置としては、例えば、PJ(Projector:プロジェクター)、デジタルサイネージ等の出力装置、HUD(Head Up Display)装置、産業機械、撮像装置、集音装置、医療機器、ネットワーク家電、ノートPC(Personal Computer)、携帯電話、スマートフォン、タブレット端末、ゲーム機、PDA(Personal Digital Assistant)、デジタルカメラ、ウェアラブルPC又はデスクトップPC等であってもよい。 Further, in the present embodiment, the electronic blackboard has been described as an example, but any information processing device having a touch panel can be suitably applied. Information processing devices equipped with a touch panel include, for example, PJs (Projectors), output devices such as digital signage, HUD (Head Up Display) devices, industrial machines, imaging devices, sound collectors, medical devices, network home appliances, etc. It may be a notebook PC (Personal Computer), a mobile phone, a smartphone, a tablet terminal, a game machine, a PDA (Personal Digital Assistant), a digital camera, a wearable PC, a desktop PC, or the like.

また、本実施形態ではペン先の座標をタッチパネルで検知する方法でペンの座標を検出したが、ペン先の座標を超音波により検出してもよい。ペンは発光と共に超音波を発信しており、表示装置2は超音波の到達時間により距離を算出する。方向と距離によりペンの位置を特定できる。ペンの軌跡をストロークとしてプロジェクターが描画(投影)する。 Further, in the present embodiment, the coordinates of the pen are detected by the method of detecting the coordinates of the pen tip with the touch panel, but the coordinates of the pen tip may be detected by ultrasonic waves. The pen emits ultrasonic waves together with light emission, and the display device 2 calculates the distance from the arrival time of the ultrasonic waves. The position of the pen can be specified by the direction and distance. The projector draws (projects) the trajectory of the pen as a stroke.

また、図6,図13などの構成例は、表示装置2による処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。表示装置2の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。 Further, the configuration examples shown in FIGS. 6 and 13 are divided according to the main functions in order to facilitate understanding of the processing by the display device 2. The present invention is not limited by the method of dividing the processing unit or the name. The processing of the display device 2 can be divided into more processing units according to the processing content. It is also possible to divide one processing unit so as to include more processing.

また、上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。 Further, each function of the embodiment described above can be realized by one or a plurality of processing circuits. Here, the "processing circuit" in the present specification is a processor programmed to execute each function by software such as a processor implemented by an electronic circuit, or a processor designed to execute each function described above. It shall include devices such as ASIC (Application Specific Integrated Circuit), DSP (digital signal processor), FPGA (field programmable gate array) and conventional circuit modules.

1 画像処理システム
2 表示装置
3 ディスプレイ
11 画像
1 Image processing system 2 Display device 3 Display 11 Image

特開2018‐061236号公報Japanese Unexamined Patent Publication No. 2018-061236

Claims (9)

取得した画像を表示する表示装置であって、
前記画像のアスペクト比と前記画像が表示される表示領域のアスペクト比が異なる場合、前記画像で使用されている色に応じて、前記画像を前記表示領域に表示した場合に生じる余白の色を決定する色決定部と、
前記画像を前記表示領域に表示し、前記色決定部が決定した色で前記余白を表示する画像生成部と、
を有することを特徴とする表示装置。
A display device that displays the acquired image.
When the aspect ratio of the image and the aspect ratio of the display area in which the image is displayed are different, the color of the margin generated when the image is displayed in the display area is determined according to the color used in the image. Color determination part and
An image generation unit that displays the image in the display area and displays the margin in a color determined by the color determination unit.
A display device characterized by having.
前記色決定部は、予め定められている代表色のうち前記画像で使用されていない色を、前記余白の色に決定することを特徴とする請求項1記載の表示装置。 The display device according to claim 1, wherein the color determining unit determines a color that is not used in the image among predetermined representative colors as the margin color. 前記色決定部は、前記画像が前記余白と接する前記画像の縁部で使用されている色に応じて、前記余白の色を決定することを特徴とする請求項1又は2に記載の表示装置。 The display device according to claim 1 or 2, wherein the color determining unit determines the color of the margin according to the color used at the edge of the image in which the image is in contact with the margin. .. 前記表示領域が表示されるディスプレイが横向きか縦向きかを検出するディスプレイ方向検出部と、
前記ディスプレイ方向検出部が検出したディスプレイの向きに応じて前記表示領域と前記画像のアスペクト比を比較するアスペクト比比較部と、
を有することを特徴とする請求項1〜3のいずれか1項に記載の表示装置。
A display orientation detection unit that detects whether the display on which the display area is displayed is landscape or portrait orientation,
An aspect ratio comparison unit that compares the aspect ratio between the display area and the image according to the orientation of the display detected by the display direction detection unit.
The display device according to any one of claims 1 to 3, wherein the display device has.
前記表示装置が複数ページを含むファイルを取得する場合であって、
前記ファイルにアスペクト比が異なる複数の画像が含まれている場合、
前記色決定部は、予め定められている代表色のうち少なくともアスペクト比が異なる複数の前記画像で使用されていない色を、アスペクト比が異なる複数の前記画像に共通の前記余白の色に決定することを特徴とする請求項1〜4のいずれか1項に記載の表示装置。
When the display device acquires a file containing a plurality of pages,
If the file contains multiple images with different aspect ratios
The color determining unit determines, among the predetermined representative colors, at least a color not used in the plurality of images having different aspect ratios as the color of the margin common to the plurality of images having different aspect ratios. The display device according to any one of claims 1 to 4, wherein the display device is characterized by the above.
前記表示領域が表示されるディスプレイに接触している入力手段の位置を検出してストロークの入力を受け付けるストローク処理部を有し、
前記画像生成部は、前記ストローク処理部が入力を受け付けた前記ストロークの座標と重ならないように前記余白を小さくすることを特徴とする請求項1〜5のいずれか1項に記載の表示装置。
It has a stroke processing unit that detects the position of the input means in contact with the display on which the display area is displayed and accepts the input of the stroke.
The display device according to any one of claims 1 to 5, wherein the image generation unit reduces the margin so that the stroke processing unit does not overlap with the coordinates of the stroke that has received the input.
ユーザの操作に応じて、前記余白を除く範囲の前記画像と前記ストロークを取り込み、取り込み画像を生成することを特徴とする請求項6に記載の表示装置。 The display device according to claim 6, wherein the image and the stroke in a range excluding the margin are captured and the captured image is generated according to the operation of the user. 取得した画像を表示する表示装置が行う表示方法であって、
前記画像のアスペクト比と前記画像が表示される表示領域のアスペクト比が異なる場合、色決定部が、前記画像で使用されている色に応じて、前記画像を前記表示領域に表示した場合に生じる余白の色を決定するステップと、
画像生成部が、前記画像を前記表示領域に表示し、前記色決定部が決定した色で前記余白を表示するステップと、
を有することを特徴とする表示方法。
It is a display method performed by a display device that displays the acquired image.
When the aspect ratio of the image and the aspect ratio of the display area in which the image is displayed are different, it occurs when the color determining unit displays the image in the display area according to the color used in the image. Steps to determine the color of the margins and
A step in which the image generation unit displays the image in the display area and displays the margin in the color determined by the color determination unit.
A display method characterized by having.
取得した画像を表示する表示装置を、
前記画像のアスペクト比と前記画像が表示される表示領域のアスペクト比が異なる場合、前記画像で使用されている色に応じて、前記画像を前記表示領域に表示した場合に生じる余白の色を決定する色決定部と、
前記画像を前記表示領域に表示し、前記色決定部が決定した色で前記余白を表示する画像生成部、として機能させるためのプログラム。
A display device that displays the acquired image,
When the aspect ratio of the image and the aspect ratio of the display area in which the image is displayed are different, the color of the margin generated when the image is displayed in the display area is determined according to the color used in the image. Color determination part and
A program for displaying the image in the display area and functioning as an image generation unit for displaying the margin in a color determined by the color determining unit.
JP2019175488A 2019-09-26 2019-09-26 Display device, display method, program Active JP7306190B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019175488A JP7306190B2 (en) 2019-09-26 2019-09-26 Display device, display method, program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019175488A JP7306190B2 (en) 2019-09-26 2019-09-26 Display device, display method, program

Publications (2)

Publication Number Publication Date
JP2021051256A true JP2021051256A (en) 2021-04-01
JP7306190B2 JP7306190B2 (en) 2023-07-11

Family

ID=75157787

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019175488A Active JP7306190B2 (en) 2019-09-26 2019-09-26 Display device, display method, program

Country Status (1)

Country Link
JP (1) JP7306190B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014208268A1 (en) * 2013-06-24 2014-12-31 シャープ株式会社 Video content display device and video content display method
US10257487B1 (en) * 2018-01-16 2019-04-09 Qualcomm Incorporated Power efficient video playback based on display hardware feedback

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014208268A1 (en) * 2013-06-24 2014-12-31 シャープ株式会社 Video content display device and video content display method
US10257487B1 (en) * 2018-01-16 2019-04-09 Qualcomm Incorporated Power efficient video playback based on display hardware feedback

Also Published As

Publication number Publication date
JP7306190B2 (en) 2023-07-11

Similar Documents

Publication Publication Date Title
US10572779B2 (en) Electronic information board apparatus, information processing method, and computer program product
EP3547218B1 (en) File processing device and method, and graphical user interface
KR20140046327A (en) Multi display apparatus, input pen, multi display apparatus controlling method and multi display system
US11294495B2 (en) Electronic whiteboard, method for image processing in electronic whiteboard, and recording medium containing computer program of electronic whiteboard
WO2016121401A1 (en) Information processing apparatus and program
US20180082663A1 (en) Information processing apparatus, image displaying method, and non-transitory computer readable medium
US9237246B2 (en) Image processing apparatus, image processing system, image processing method, and computer-readable storage medium
US10725653B2 (en) Image processing device, image processing system, and image processing method
WO2017138223A1 (en) Image processing device, image processing system, and image processing method
US11610560B2 (en) Output apparatus, output system, and method of changing format information
EP3289769A1 (en) Information processing apparatus, and image displaying method
JP2016038728A (en) Image display device, control method of image display device and program thereof
WO2017138233A1 (en) Image processing device, image processing system and image processing method
JP7306190B2 (en) Display device, display method, program
JP7338330B2 (en) Display device, display method, program
JP2022087633A (en) Display device, erasing method switching method, and program
JP7484568B2 (en) Display device, display method, and program
JP2020149149A (en) Display device, display system, operation mode control method, and program
JP7342501B2 (en) Display device, display method, program
JP7314719B2 (en) Display device, display method, program
WO2016121403A1 (en) Information processing apparatus, image processing system, and program
US11675496B2 (en) Apparatus, display system, and display control method
JP7331578B2 (en) Display device, image display method, program
JP2022139957A (en) Display device, program, conversion method, and display system
JP2020149634A (en) Image processing apparatus, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220721

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230612

R151 Written notification of patent or utility model registration

Ref document number: 7306190

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151