JP2020149633A - Display device, display method, and display program - Google Patents
Display device, display method, and display program Download PDFInfo
- Publication number
- JP2020149633A JP2020149633A JP2019049123A JP2019049123A JP2020149633A JP 2020149633 A JP2020149633 A JP 2020149633A JP 2019049123 A JP2019049123 A JP 2019049123A JP 2019049123 A JP2019049123 A JP 2019049123A JP 2020149633 A JP2020149633 A JP 2020149633A
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- input means
- selecting
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、表示装置、表示方法、表示プログラムに関する。 The present invention relates to a display device, a display method, and a display program.
近年では、タッチパネルディスプレイを用いた入力装置において用いられる描画アプリケーションが普及しつつある。描画アプリケーションでは、手書きによって入力された文字や図形等を描画させる。 In recent years, drawing applications used in input devices using touch panel displays have become widespread. In the drawing application, characters and figures input by handwriting are drawn.
この描画アプリケーションのような技術では、タッチパネルディスプレイに表示されたオブジェクトに対する操作の1つとして、オブジェクトの角の画像を選択し、ドラッグするとで、オブジェクトの選択と拡大又は縮小とを行う操作が知られている。 In a technique such as this drawing application, as one of the operations on an object displayed on a touch panel display, an operation of selecting an image at the corner of the object and dragging it to select and enlarge or reduce the object is known. ing.
描画アプリケーションにおいて、オブジェクトを選択するための画像は、オブジェクトの描画を妨げないよう小さく設けられることが一般的である。このため、従来の描画アプリケーションでは、オブジェクトを選択する操作を行う際に、オブジェクトを選択するための画像が、ユーザの指や入力用の電子ペンによって隠されてしまい、誤って、選択しようとしたオブジェクト以外の領域を選択してしまう場合があった。尚、オブジェクトとは、例えば、文字、数字、図形、記号等であっても良いし、イラストや模様等であっても良い。 In a drawing application, an image for selecting an object is generally provided small so as not to interfere with the drawing of the object. For this reason, in a conventional drawing application, when performing an operation for selecting an object, the image for selecting the object is hidden by the user's finger or an electronic pen for input, and an attempt is made to select the object by mistake. In some cases, an area other than the object was selected. The object may be, for example, characters, numbers, figures, symbols, or the like, or may be an illustration, a pattern, or the like.
開示の技術は、オブジェクトに対する操作性を向上させること目的とする。 The disclosed technology aims to improve the operability of objects.
開示の技術は、オブジェクトが表示される表示部に対する入力手段の接近を検知する接近検知部と、前記入力手段の接近が検知され、前記表示部における前記オブジェクトを選択するための画像を含む所定領域内に、前記入力手段と対応する座標が示す位置が含まれる場合に、前記オブジェクトを選択するための画像を拡大して表示させる表示制御部と、を有する表示装置である。 The disclosed technology includes an approach detection unit that detects the approach of an input means to a display unit on which an object is displayed, and a predetermined area that includes an image for detecting the approach of the input means and selecting the object on the display unit. The display device includes a display control unit that enlarges and displays an image for selecting the object when the position indicated by the coordinates corresponding to the input means is included in the display device.
オブジェクトに対する操作性を向上させる。 Improves operability for objects.
以下に図面を参照して、本実施形態について説明する。図1は、電子黒板について説明する図である。 The present embodiment will be described below with reference to the drawings. FIG. 1 is a diagram illustrating an electronic blackboard.
本実施形態の電子黒板200は、近距離通信回路219、電源スイッチ222、ディスプレイ280、カメラ260を有する。電子黒板200は、電源スイッチ222が押下されると、後述する表示制御部が、ディスプレイ280に、電子ペンやユーザの指によって描画が可能な描画画面を表示させる表示部である。
The
また、本実施形態の電子黒板200は、カメラ260によって、ユーザの指や電子ペンがディスプレイ280に接近したことを検出する。つまり、カメラ260は、近接センサの一例である。また、電子黒板200は、カメラ260によって、ユーザの指や電子ペンが、ディスプレイ280に表示されたオブジェクトを選択するための画像に接近したことを検出すると、このオブジェクトを選択するための画像を拡大して表示させる。
Further, the
本実施形態のオブジェクトとは、操作の対象となるものであって、例えば、文字、数字、図形、記号、イラスト、模様等を含む。 The object of the present embodiment is an object of operation, and includes, for example, characters, numbers, figures, symbols, illustrations, patterns, and the like.
本実施形態の電子黒板200は、この構成により、ユーザの指や電子ペンによって、オブジェクトを選択するための画像が隠されることによる誤操作の発生を抑制し、オブジェクトに対する操作性を向上させることができる。
With this configuration, the
以下に、図2を参照して、本実施形態の電子黒板200のハードウェア構成について説明する。図2は、電子黒板のハードウェア構成の一例を示す図である。
図2は、電子黒板のハードウェア構成図である。図2に示されているように、電子黒板2は、CPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203、SSD(Solid State Drive)204、ネットワークI/F205、及び、外部機器接続I/F(Interface)206を備えている。
The hardware configuration of the
FIG. 2 is a hardware configuration diagram of the electronic blackboard. As shown in FIG. 2, the electronic blackboard 2 includes a CPU (Central Processing Unit) 201, a ROM (Read Only Memory) 202, a RAM (Random Access Memory) 203, an SSD (Solid State Drive) 204, and a network I / It includes an F205 and an external device connection I / F (Interface) 206.
これらのうち、CPU201は、電子黒板2全体の動作を制御する。ROM202は、CPU201やIPL(Initial Program Loader)等のCPU201の駆動に用いられるプログラムを記憶する。RAM203は、CPU201のワークエリアとして使用される。SSD204は、電子黒板用のプログラム等の各種データを記憶する。
Of these, the
ネットワークI/F205は、通信ネットワークとの通信を制御する。外部機器接続I/F206は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、例えば、USB(Universal Serial Bus)メモリ230、外付け機器(マイク240、スピーカ250、カメラ260)である。
The network I /
また、電子黒板200は、キャプチャデバイス211、GPU212、ディスプレイコントローラ213、接触センサ214、センサコントローラ215、電子ペンコントローラ216、近距離通信回路219、及び近距離通信回路219のアンテナ219a、電源スイッチ222及び選択スイッチ類223を備えている。
Further, the
これらのうち、キャプチャデバイス211は、外付けのPC(Personal Computer)270のディスプレイに対して映像情報を静止画または動画として表示させる。GPU(Graphics Processing Unit)212は、グラフィクスを専門に扱う半導体チップである。
GPU212は、CPU201に内蔵されてよいし、CPU201と統合されていてもよい。
Of these, the
The GPU 212 may be built in the
ディスプレイコントローラ213は、GPU212からの出力画像をディスプレイ280等へ出力するために画面表示の制御及び管理を行う。接触センサ214は、ディスプレイ280上に電子ペン290やユーザの手H等が接触したことを検知する。センサコントローラ215は、接触センサ214の処理を制御する。
The
接触センサ214は、赤外線遮断方式による座標の入力及び座標の検出を行う。この座標の入力及び座標の検出する方法は、ディスプレイ280の上側両端部に設置された2つ受発光装置が、ディスプレイ280に平行して複数の赤外線を放射し、ディスプレイ280の周囲に設けられた反射部材によって反射されて、受光素子が放射した光の光路と同一の光路上を戻って来る光を受光する方法である。接触センサ214は、物体によって遮断された2つの受発光装置が放射した赤外線のIDをセンサコントローラ215に出力し、センサコントローラ215が、物体の接触位置である座標位置を特定する。
The
電子ペンコントローラ216は、電子ペン290と通信することで、ディスプレイ280へのペン先のタッチやペン尻のタッチの有無を判断する。近距離通信回路219は、NF(Near Field Communication)やBluetooth(登録商標)等の通信回路である。電源スイッチ222は、電子黒板2の電源のON/OFFを切り換えるためのスイッチである。選択スイッチ類223は、例えば、ディスプレイ280の表示の明暗や色合い等を調整するためのスイッチ群である。
The
更に、電子黒板2は、バスライン210を備えている。バスライン210は、図2に示されているCPU201等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。
Further, the electronic blackboard 2 includes a
尚、接触センサ214は、赤外線遮断方式に限らず、静電容量の変化を検知することにより接触位置を特定する静電容量方式のタッチパネル、対向する2つの抵抗膜の電圧変化によって接触位置を特定する抵抗膜方式のタッチパネル、接触物体が表示部に接触することによって生じる電磁誘導を検知して接触位置を特定する電磁誘導方式のタッチパネルなどの種々の検出手段を用いてもよい。また、電子ペンコントローラ216が、電子ペン290のペン先及びペン尻だけでなく、電子ペン290のユーザが握る部分や、その他の電子ペンの部分のタッチの有無を判断するようにしてもよい。
The
また、本実施形態では、カメラ260は、ディスプレイ280に電子ペン290や手Hが接近したことを検出する近接センサの一例としたが、電子黒板200は、近接センサとして、投影型静電容量方式タッチパネルや赤外線センサ等を有していても良い。
Further, in the present embodiment, the
次に、図3を参照して、本実施形態の電子黒板200の機能構成について説明する。図3は、電子黒板の機能構成を説明する図である。
Next, the functional configuration of the
本実施形態の電子黒板200は、ページ記憶部320、オブジェクト記憶部330、入力部341、ページ生成部342、オブジェクト特定部343、座標取得部344、接近検知部345、領域判定部346、表示制御部347、オブジェクト更新部348を有する。
The
ページ記憶部320は、電子黒板200のディスプレイ280に表示されるページデータが記憶される。ページ記憶部320に記憶されるページデータは、例えば、ディスプレイ280において描画されたストローク画像を示すストローク画像データであっても良いし、外部から取得した画像データであっても良い。
The
ストローク画像とは、電子黒板200のディスプレイ280に対して、電子ペン290を用いて手書きで入力された一画毎の軌跡の画像である。
The stroke image is an image of a locus of each stroke input by hand using an
また、ページデータは、ディスプレイ280に表示された画像と、ディスプレイ280に入力されたストローク画像とを重畳した重畳画像の画像データであっても良い。ディスプレイ280に表示される画像データの詳細は後述する。
Further, the page data may be image data of a superimposed image in which the image displayed on the
オブジェクト記憶部330は、オブジェクトに関するオブジェクト情報を格納する。具体的には、オブジェクト記憶部330は、画像データのうち、ディスプレイ280に手書き又は電子ペン290によって描画されたストロークを含む所定の矩形領域の画像を、オブジェクトとして記憶する。つまり、オブジェクトとは、ストローク画像を含む矩形領域の画像である。また、オブジェクト記憶部330は、矩形領域であるオブジェクトをディスプレイ280に表示させた場合の4点の位置を示す座標情報を保持している。オブジェクト記憶部330の詳細は後述する。
The
入力部341は、ディスプレイ280に対して手書き入力された文字や画像を示すストローク画像や、ディスプレイ280に設けられたタッチパネルに表示された画像の画像データ等を取得する。
The
また、入力部341は、カメラ260により撮影された動画データ等を取得する。本実施形態では、動画データは、画像データに含まれる。また、入力部341は、電子黒板200に対する各種の指示を受け付ける。また、入力部341は、PC270等から出力され、電子黒板200に入力される入力画像データ等を取得する。
In addition, the
ページ生成部342は、ディスプレイ280に表示された1ページの画像(表示画像)の画像データを取得する。また、ページ生成部342は、1ページの画像にストローク画像が入力された場合には、ストローク画像を示すストローク画像データを取得する。
The
具体的には、ページ生成部342は、ディスプレイ280に入力された入力画像やストローク画像等を重畳させた重畳画像の画像データを取得し、ページ記憶部320に格納する。尚、ページ生成部342は、ディスプレイ280に対してストローク画像が入力されていない場合には、ディスプレイ280に表示された画像を画像データとする。
Specifically, the
また、ページ生成部342は、ディスプレイ280に対してストローク画像が入力された場合には、ストローク画像を示すストローク画像データを画像データとして、ページ記憶部320に格納する。
Further, when the stroke image is input to the
このように、本実施形態のページ生成部342は、ディスプレイ280に表示された画像データや、ディスプレイ280に入力されたストローク画像を示すストローク画像データから、ページデータを生成する生成部である。
As described above, the
オブジェクト特定部343は、手書き又は電子ペン290によって入力されたストローク画像を含む矩形領域の画像をオブジェクトとして特定する。
The
座標取得部344は、オブジェクト特定部343によって特定された矩形領域の4点の座標を取得し、オブジェクト記憶部330に、オブジェクトと対応付けて格納する。
The coordinate
また、座標取得部344は、オブジェクトを特定する矩形領域の角を含む所定領域を示す情報を取得し、オブジェクトと対応付けてオブジェクト記憶部330に格納する。以下の説明では、オブジェクトを特定する矩形領域の角を含む所定領域を角領域と呼ぶ。つまり、本実施形態の角領域とは、ディスプレイ280に表示されたオブジェクトを選択するための画像を含み、オブジェクトを選択するための画像と対応付けられた、ディスプレイ280における所定領域である。
Further, the coordinate
また、以下の説明では、オブジェクトを含む矩形領域と、角領域を特定する情報とを対応づけることを、角領域を設定する、と表現する場合がある。オブジェクトを含む矩形領域と角領域の詳細は後述する。 Further, in the following description, associating a rectangular area including an object with information for specifying a corner area may be expressed as setting a corner area. Details of the rectangular area and the corner area including the object will be described later.
接近検知部345は、物体がディスプレイ280に接近したことを検知する。具体的には、接近検知部345は、電子ペン290又はユーザの手等の手書き画像の入力手段がディスプレイ280から所定の距離以内に入ったことを検知する。以下の説明では、電子ペン290又はユーザの手といった、手書き画像を入力するための物体を入力手段と表現する場合がある。
The
領域判定部346は、手書き画像の入力手段となり得る物体が、ディスプレイ280に表示されたオブジェクトを特定する矩形領域の角を含む所定領域に対して接近しているか否かを判定する。
The
具体的には、領域判定部346は、接近検知部345によって検知された入力手段と対応する座標情報が、角領域内にあるか否かを判定している。
Specifically, the
表示制御部347は、ディスプレイ280に対する各種の表示を制御する。領域判定部346により、入力手段と対応する座標情報が、角領域内にあると判定された場合に、角を示す画像を拡大表示させる。また、表示制御部347は、角を示す画像が拡大表示された状態において、領域判定部346により、入力手段と対応する座標情報が、角領域外にあると判定された場合、拡大表示された角を示す画像を元の大きさに戻す。
The
オブジェクト更新部348は、表示制御部347によって、オブジェクトを拡大又は縮小する操作が行われると、操作に応じて、オブジェクト記憶部330に格納されるオブジェクト情報を更新する。
When the
次に、図4を参照して、ディスプレイ280に表示される画像について説明する。図4は、電子黒板のディスプレイに表示される画像について説明する図である。
Next, the image displayed on the
図4(A)は、重畳される画像を説明する図であり、図4(B)は、重畳画像の一例を示す図である。 FIG. 4A is a diagram for explaining the superimposed image, and FIG. 4B is a diagram showing an example of the superimposed image.
本実施形態の電子黒板200において、表示制御部347は、入力部341により取得される入力画像や、ストローク画像、UI(User Interface)画像及び背景画像を予め指定されたレイアウトにしたがって重畳して表示させる。
In the
尚、UI画像とは、予め設定された画像である。また、背景画像は、例えば、無地の画像やグリッド線を含む画像等であり、重畳画像に含まれるメディアデータである。メディアデータとは、背景画像をディスプレイ280に表示させるためのデータである。
The UI image is a preset image. The background image is, for example, a plain image, an image including grid lines, or the like, and is media data included in the superimposed image. The media data is data for displaying a background image on the
表示制御部347は、図4に示すように、UI画像を表示させるためのレイヤ41、ストローク画像を表示させるためのレイヤ42、PCから出力されて電子黒板200に入力される入力画像を表示させるレイヤ43、背景画像を表示させるためのレイヤ44を有する。
As shown in FIG. 4, the
本実施形態の表示制御部347は、電子黒板200のユーザからディスプレイ280を見たとき、レイヤ41が1層目、レイヤ42が2層目、レイヤ43が3層目、レイヤ44が4層目となるように、各レイヤを重畳させる。
When the
そして、表示制御部347は、UI画像の画像データ(UI画像データ)、ストローク画像データ、入力画像の画像データ(入力画像データ)、背景画像の画像データ(背景画像データ)を合成することで、4層の重畳画像40の画像データを生成する。
Then, the
つまり、本実施形態の重畳画像とは、ディスプレイ280の各レイヤに表示された画像を合成した画像である。
That is, the superimposed image of the present embodiment is an image obtained by synthesizing the images displayed on each layer of the
尚、本実施形態の説明では、レイヤ42に表示さけたストローク画像を、オブジェクトとして特定するものとするが、オブジェクトとして特定される画像は、ストローク画像以外の画像であっても良い。
In the description of the present embodiment, the stroke image displayed on the
次に、図5を参照して、本実施形態のオブジェクトについて説明する。図5は、オブジェクトについて説明する図である。図5(A)は、オブジェクトと、オブジェクトを特定する矩形領域を説明する図であり、図5(B)は、矩形領域の角領域を説明する図である。 Next, the object of this embodiment will be described with reference to FIG. FIG. 5 is a diagram illustrating an object. FIG. 5A is a diagram for explaining an object and a rectangular area for specifying an object, and FIG. 5B is a diagram for explaining a corner area of the rectangular area.
図5(A)では、ストローク画像51が矩形領域52によって囲われている。本実施形態では、ディスプレイ280に表示される画像において、ストローク画像51を含む矩形領域52をオブジェクトとして特定する。
In FIG. 5A, the
尚、オブジェクトとして特定される矩形領域に含まれる画像は、ストローク画像以外の画像であっても良い。言い換えれば、オブジェクトとして特定される矩形領域に含まれる画像は、図4で説明したストローク画像のレイヤ42以外のレイヤに表示される画像であっても良い。
The image included in the rectangular area specified as an object may be an image other than the stroke image. In other words, the image included in the rectangular region specified as the object may be an image displayed on a layer other than the
矩形領域52の四隅には、矩形領域52の角を示す角画像53〜56が表示される。通常、ユーザがストローク画像を拡大しようとした場合、この角画像53〜56の何れかを電子ペン290や指によって選択してドラッグする操作を行う。つまり、本実施形態の角画像は、オブジェクトと対応付けられており、オブジェクトを選択するための画像である。
At the four corners of the
本実施形態では、矩形領域52の角を示す角画像53〜56のそれぞれの周囲に、角を中心とした角領域61〜64が設定される。
In the present embodiment,
本実施形態では、ディスプレイ280に表示された角画像53〜56に対して、電子ペン290や指が接近し、角領域61〜64の何れかの中に入ったことを検知すると、図5(B)に示すように、角画像53〜56を拡大させた角画像53A〜56Aとする。
In the present embodiment, when it is detected that the
本実施形態では、このように、角画像を拡大とすることで、ユーザに対して、オブジェクトの角を示す角画像を選択しやすくする。 In the present embodiment, by enlarging the corner image in this way, it is easy for the user to select the corner image showing the corner of the object.
次に、図6を参照して、本実施形態のオブジェクト記憶部330について説明する。図6は、オブジェクト記憶部の一例を示す図である。
Next, the
オブジェクト記憶部330には、オブジェクトに関するオブジェクト情報が格納される。オブジェクト情報は、情報の項目として、オブジェクトID、ストロークID、角座標、角領域、画像データ等を含む。項目「オブジェクトID」の値は、オブジェクトを特定する識別情報であり、項目「ストロークID」の値は、ストローク画像を特定する識別情報である。
Object information about an object is stored in the
項目「角座標」の値は、オブジェクトである矩形領域の角の座標を示す。項目「角領域」の値は、角領域を特定するための情報である。具体的には、項目「角領域」の値は、角領域が、角座標のそれぞれを中心とする所定の大きさの矩形領域となるように決められた縦方向と横方向の長さを示す。 The value of the item "angle coordinates" indicates the coordinates of the corners of the rectangular area which is an object. The value of the item "corner area" is information for specifying the corner area. Specifically, the value of the item "corner region" indicates the length in the vertical direction and the horizontal direction in which the corner region is determined to be a rectangular region of a predetermined size centered on each of the angular coordinates. ..
項目「画像データ」の値は、ストロークIDと対応するストローク画像を示す画像データである。 The value of the item "image data" is image data indicating a stroke image corresponding to the stroke ID.
本実施形態では、入力部341によってストローク画像が入力されると、オブジェクト特定部343と、座標取得部344によって、オブジェクト情報に含まれる各項目の値が取得されて、オブジェクト情報とされる。
In the present embodiment, when the stroke image is input by the
次に、図7を参照して、本実施形態の電子黒板200の動作について説明する。図7は、電子黒板の動作を説明するフローチャートである。
Next, the operation of the
本実施形態の電子黒板200は、入力部341により、ストローク画像が入力されると、オブジェクト特定部343により、ストローク画像を含む矩形領域を特定し、座標取得部344により、矩形領域の角を示す座標を取得して、オブジェクト記憶部330に格納する(ステップS701)。
In the
続いて、電子黒板200は、接近検知部345により、電子ペン290又はユーザの指等の入力手段となりえる物体が、ディスプレイ280から所定の距離以内となるまで接近したか否かを判定する(ステップS702)。
Subsequently, the
ステップS702において、接近していない場合、電子黒板200は、待機する。ステップS702において、接近したと判定された場合、電子黒板200は、オブジェクト記憶部330を参照し、領域判定部346により、ディスプレイ280における入力手段と対応する位置を示す座標が、オブジェクト記憶部330に格納された角領域の何れかの範囲内であるか否かを判定する(ステップS703)。
In step S702, if not approaching, the
ステップS703において、角領域外である場合、電子黒板200は、ステップS702へ戻る。
If it is outside the corner region in step S703, the
ステップS703において、角領域内である場合、表示制御部347は、ディスプレイ280に表示されたオブジェクトのうち、入力手段と対応する位置を示す座標を含む角領域と付けられたオブジェクトの角を示す角画像を、拡大する(ステップS704)。
In step S703, when it is within the corner area, the
このとき、表示制御部347は、角画像の大きさが、角領域と同じ大きさとなるように、拡大しても良い。
At this time, the
次に、電子黒板200は、領域判定部346により、入力手段と対応する位置を示す座標が、角領域内でなくなったか否かを判定する(ステップS705)。ステップS705において、角領域内でなくなった場合、表示制御部347は、拡大した角画像を初期状態に戻し(ステップS706)、処理を終了する。言い換えれば、表示制御部347は、拡大した角画像を、拡大する前の大きさに戻す。
Next, the
ステップS705において、角領域内であった場合、電子黒板200は、入力部341により、接触センサ214が、角画像に入力手段が接触したことを検知したか否かを判定する(ステップS707)。ステップS707において、接触したことが検知されない場合、電子黒板200は、ステップS705へ戻る。
In step S705, when it is within the corner region, the
ステップS707において、接触したことが検知された場合、電子黒板200は、表示制御部347により、操作に応じてオブジェクトを拡大又は縮小して表示させる(ステップS708)。
When the contact is detected in step S707, the
続いて、電子黒板200は、表示制御部347により、拡大した角画像を初期状態に戻し、オブジェクト更新部348により、拡大又は縮小されたオブジェクトのオブジェクト情報を更新し(ステップS709)、処理を終了する。具体的には、オブジェクト更新部348は、操作後のオブジェクトの角を示す座標を取得し、取得した座標と対応するように角領域を更新する。
Subsequently, the
次に、図8を参照して、電子黒板200のディスプレイ280の表示の遷移について説明する。図8は、電子黒板の表示例を説明する第一の図である。
Next, the display transition of the
図8では、ディスプレイ280に表示されたオブジェクト81が縮小される場合の表示の遷移を示している。
FIG. 8 shows a display transition when the
電子黒板200は、ディスプレイ280に、オブジェクト81と、オブジェクト81の角を示す角画像82〜85が表示された状態において、入力手段の一つである電子ペン290が所定の距離以内に接近したことを検知する。さらに、電子黒板200は、ディスプレイ280における電子ペン290と対応する位置を示す座標が、オブジェクト81の角画像82が示す角と対応する角領域内に入ったことを検知する。
In the
すると、電子黒板200は、ディスプレイ280に表示されたオブジェクト81の角画像82〜85を、角領域と同じ大きさとなるように拡大させた角画像82A〜85Aとして表示させる。尚、このとき、拡大表示されるのは、電子ペン290と対応する位置を示す座標が角領域内に入った角画像のみであっても良い。したがって、この場合、角画像82のみが拡大されても良い。
Then, the
次に、電子黒板200は、拡大された角画像82Aに対する電子ペン290の接触を検知し、電子ペン290によるオブジェクト81の縮小の操作を受け付けると、オブジェクト81を縮小したオブジェクト81Aとする。
Next, when the
そして、電子黒板200は、拡大された角画像82A〜85Aを初期状態の角画像82〜85へ戻し、オブジェクト81のオブジェクト情報をオブジェクト81Aのオブジェクト情報に更新して、処理を終了する。
Then, the
図9は、電子黒板の表示例を説明する第二の図である。図9では、ディスプレイ280に表示されたオブジェクト81が操作されない表示の遷移を示している。
FIG. 9 is a second diagram illustrating a display example of the electronic blackboard. FIG. 9 shows a display transition in which the
図9の例では、電子黒板200のディスプレイ280に電子ペン290が接近し、電子ペン290と対応する位置を示す座標が、オブジェクト81の角画像82と対応する角領域内に入ったために、角画像82〜85が拡大された角画像82A〜85Aとなる。
In the example of FIG. 9, the
その後、電子ペン290は、拡大された角画像82Aに接触せずに、電子ペン290と対応する位置を示す座標が、角画像82と対応する角領域外となると、拡大された角画像82A〜85Aは、初期状態の角画像82〜85へ戻る。
After that, the
このように、本実施形態によれば、オブジェクトに対する操作を行うおうとする動作が検知された場合には、オブジェクトを選択するための画像を拡大させる。したがって、本実施形態によれば、オブジェクトを選択するための画像を、オブジェクトに対する操作を行わない場合には、ストローク画像の入力や、画像の表示等の妨げにならない程度の大きさで表示させ、オブジェクトの操作に応じて拡大するため、誤操作を抑制しつつ、オブジェクトに対する操作性を向上させることができる。 As described above, according to the present embodiment, when an operation for performing an operation on an object is detected, the image for selecting the object is enlarged. Therefore, according to the present embodiment, the image for selecting the object is displayed in a size that does not interfere with the input of the stroke image, the display of the image, etc., when the operation on the object is not performed. Since the image is enlarged according to the operation of the object, it is possible to improve the operability of the object while suppressing erroneous operation.
尚、上述した実施形態では、オブジェクトを選択するための画像を、オブジェクトを示す矩形領域の角を示す角画像として説明したが、オブジェクトを選択するための画像は、矩形領域の角を示す画像以外の画像であっても良い。 In the above-described embodiment, the image for selecting an object is described as a corner image showing the corners of a rectangular area showing an object, but the image for selecting an object is other than the image showing the corners of a rectangular area. It may be an image of.
図10は、オブジェクトを選択するための画像を説明する図である。図10の例では、ストローク画像101を含む矩形領域102を示す画像がオブジェクト103として特定される。
FIG. 10 is a diagram illustrating an image for selecting an object. In the example of FIG. 10, an image showing a
また、図10の例では、オブジェクト103を選択するための画像として、角画像104〜107に加え、矩形領域102の長辺上に2つの画像108、109が存在する。
Further, in the example of FIG. 10, in addition to the
この場合、画像109を含む角画像と対応する領域に電子ペン290が接近すれば、角画像104〜107と、画像108、109とが拡大されて、角画像104A〜107A、108A、109Aとなる。
In this case, if the
このように、本実施形態では、オブジェクトを選択するための画像は、オブジェクトを示す矩形領域の角を示す角画像以外の画像であっても良く、オブジェクトと対応付けられた画像であれば良い。また、上で説明した図では、オブジェクトを選択するための画像の形状を矩形としているが、オブジェクトを選択するための画像の形状は、任意の形状であって良い。例えば、オブジェクトを選択するための画像は、円形であっても良いし、矢印であっても良いし、人の手をかたどった形状であっても良い。また、オブジェクトを選択するための画像の大きさは、オブジェクトの大きさと関連付けて決められても良い。 As described above, in the present embodiment, the image for selecting the object may be an image other than the corner image indicating the corner of the rectangular region indicating the object, and may be an image associated with the object. Further, in the figure described above, the shape of the image for selecting the object is a rectangle, but the shape of the image for selecting the object may be any shape. For example, the image for selecting an object may be a circle, an arrow, or a shape in the shape of a human hand. Further, the size of the image for selecting the object may be determined in relation to the size of the object.
また、上で説明した図では、オブジェクトを選択するための画像は、オブジェクトの外周上に表示されるものとしたが、これに限定されない。オブジェクトを選択するための画像は、オブジェクトと対応づけられた位置に表示されていれば良い。したがって、例えば、オブジェクトを示す矩形領域が、ディスプレイ280の表示領域と比較して、十分に小さく、オブジェクトを選択するための画像をオブジェクトの外周上に表示することが困難である場合等には、オブジェクトの外周上から離れた位置にオブジェクトを選択するための画像を表示させても良い。
Further, in the figure described above, the image for selecting the object is displayed on the outer circumference of the object, but the image is not limited to this. The image for selecting the object may be displayed at the position associated with the object. Therefore, for example, when the rectangular area showing the object is sufficiently small as compared with the display area of the
また、本実施形態では、オブジェクトを示す形状を矩形としたが、これに限定されない。オブジェクトは、例えば、ストローク画像等を含む円形や楕円形等の形状であっても良い。 Further, in the present embodiment, the shape indicating the object is a rectangle, but the present invention is not limited to this. The object may have a shape such as a circle or an ellipse including a stroke image or the like.
また、本実施形態の電子黒板200は、サーバ装置と通信を行うシステムに含まれていても良い。
Further, the
図11は、電子黒板を含む情報処理システムのシステム構成の一例を示す図である。情報処理システム500は、電子黒板(電子情報ボード)200と、サーバ装置550と、を有する。情報処理システム500において、電子黒板200とサーバ装置550とは、ネットワークを介して接続される。
FIG. 11 is a diagram showing an example of a system configuration of an information processing system including an electronic blackboard. The
本実施形態の情報処理システム500において、電子黒板200は、電子黒板200の画面をキャプチャした画像データ(キャプチャ画像データ)、電子黒板200に対して手書き入力された文字や画像等を示すストローク画像データ、マイク等の集音装置よって集音された音声データ等を取得し、サーバ装置550に送信する。尚、本実施形態の電子黒板200は、取得した情報と対応付けて各種のデータを取得したときの日時を、サーバ装置550に送信しても良い。
In the
また、電子黒板200は、複数の端末装置と通信が可能であり、各端末装置から画像データや音声データを取得しても良い。この場合、電子黒板200に表示される画像は、複数の端末装置によって共有されても良く、電子黒板200は、複数の端末装置に共有される画面を表示させる共有端末となる。
Further, the
次に、図12乃至図14を参照して、上述した情報処理システムの変形例について説明する。 Next, a modification of the above-mentioned information processing system will be described with reference to FIGS. 12 to 14.
図12は、情報処理システムの変形例を示す第一の図である。図12の例では、電子黒板200の代わりに、端末装置600、画像投影装置700、ペン動作検出装置810を有する。
FIG. 12 is a first diagram showing a modified example of the information processing system. In the example of FIG. 12, instead of the
端末装置600は、画像投影装置700及びペン動作検出装置810と有線で接続されている。
The
画像投影装置700は、端末装置600により入力された画像データをスクリーン800に投影させる。
The
ペン動作検出装置810は、電子ペン820と通信を行っており、スクリーン800の近傍における電子ペン820の動作を検出する。具体的には、電子ペン820は、スクリーン800上において、電子ペン820が示している点を示す座標情報を検出し、端末装置600へ送信する。
The pen
端末装置600は、ペン動作検出装置810から受信した座標情報に基づき、電子ペン820によって入力されるストローク画像を示すストローク画像データを生成し、画像投影装置700によってストローク画像をスクリーン800に描画させる。
The
また、端末装置600は、画像投影装置700に投影させている画像を示す重畳画像データを含むページデータを生成し、サーバ装置550に送信する。
Further, the
図13は、情報処理システムの変形例を示す第二の図である。図13の例では、電子黒板200の代わりに、端末装置600とディスプレイ800Aと、ペン動作検出装置810とを有する。
FIG. 13 is a second diagram showing a modified example of the information processing system. In the example of FIG. 13, instead of the
ペン動作検出装置810は、ディスプレイ800Aの近傍に配置され、ディスプレイ800A上に、電子ペン820Aが示している点を示す座標情報を検出し、端末装置600へ送信する。尚、図13の例では、電子ペン820Aは、端末装置600によってUSBコネクタを介して充電されても良い。
The pen
端末装置600は、ペン動作検出装置810から受信した座標情報に基づき、電子ペン820Aによって入力されるストローク画像の画像データを生成し、ディスプレイ800Aに表示させる。
The
また、本実施形態の端末装置600は、画像投影装置700に投影させている画像を示す重畳画像データを含むページデータを生成し、サーバ装置550に送信する。
Further, the
図14は、情報処理システムの変形例を示す第三の図である。図14の例では、電子黒板200の代わりに、端末装置600と、画像投影装置700とを有する。
FIG. 14 is a third diagram showing a modified example of the information processing system. In the example of FIG. 14, instead of the
端末装置600は、電子ペン820Bと無線通信(Bluetooth等)を行って、スクリーン800上において電子ペン820Bが示す点の座標情報を受信する。そして、端末装置600は、受信した座標情報に基づき、電子ペン820Bにより入力されるストローク画像の画像データを生成し、画像投影装置700によって、スクリーン800上にストローク画像を投影させる。
The
また、端末装置600は、画像投影装置700に投影させている画像を示す重畳画像データを含むページデータを生成し、サーバ装置550に送信する。
Further, the
以上のように、上述した各実施形態は、様々なシステム構成において適用することができる。 As described above, each of the above-described embodiments can be applied in various system configurations.
上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。 Each function of the embodiment described above can be realized by one or more processing circuits. Here, the "processing circuit" in the present specification is a processor programmed to execute each function by software such as a processor implemented by an electronic circuit, or a processor designed to execute each function described above. It shall include devices such as ASIC (Application Specific Integrated Circuit), DSP (digital signal processor), FPGA (field programmable gate array) and conventional circuit modules.
尚、本実施形態が適用される装置は、タッチ操作によって、オブジェクトを操作する機能を備えた表示装置であれば良く、電子黒板200に限定されにない。本実施形態が適用される装置は、例えば、PJ(Projector:プロジェクタ)、デジタルサイネージ等の出力装置、HUD(Head Up Display)装置、ネットワーク家電、自動車(Connected Car)、ノートPC(Personal Computer)、携帯電話、スマートフォン、タブレット端末、ゲーム機、PDA(Personal Digital Assistant)、ウェアラブルPC等であってもよい。
The device to which the present embodiment is applied may be a display device having a function of operating an object by a touch operation, and is not limited to the
また、実施形態に記載された装置群は、本明細書に開示された実施形態を実施するための複数のコンピューティング環境のうちの1つを示すものにすぎない。 Further, the device group described in the embodiment is only one of a plurality of computing environments for implementing the embodiment disclosed in the present specification.
ある実施形態では、第1の装置は、サーバクラスタといった複数のコンピューティングデバイスを含む。複数のコンピューティングデバイスは、ネットワークや共有メモリなどを含む任意のタイプの通信リンクを介して互いに通信するように構成されており、本明細書に開示された処理を実施する。同様に、第2の装置は、互いに通信するように構成された複数のコンピューティングデバイスを含むことができる。 In certain embodiments, the first device comprises a plurality of computing devices, such as a server cluster. The plurality of computing devices are configured to communicate with each other over any type of communication link, including networks, shared memory, and the like, and perform the processes disclosed herein. Similarly, the second device can include multiple computing devices configured to communicate with each other.
さらに、第1の装置および第2の装置は、図7に示す処理のステップを様々な組み合わせで共有するように構成できる。例えば、所定のユニットによって実行されるプロセスは、第2の装置によって実行され得る。同様に、所定のユニットの機能は、第2の装置によって実行することができる。また、第1の装置と第2の装置の各要素は、1つのサーバ装置にまとめられていても良いし、複数の装置に分けられていても良い。 Further, the first device and the second device can be configured to share the processing steps shown in FIG. 7 in various combinations. For example, a process performed by a given unit may be performed by a second device. Similarly, the function of a given unit can be performed by a second device. Further, each element of the first device and the second device may be integrated into one server device, or may be divided into a plurality of devices.
以上、各実施形態に基づき本発明の説明を行ってきたが、上記実施形態に示した要件に本発明が限定されるものではない。これらの点に関しては、本発明の主旨をそこなわない範囲で変更することができ、その応用形態に応じて適切に定めることができる。 Although the present invention has been described above based on each embodiment, the present invention is not limited to the requirements shown in the above embodiments. With respect to these points, the gist of the present invention can be changed without impairing the gist of the present invention, and can be appropriately determined according to the application form thereof.
200 電子黒板
320 ページ記憶部
330 オブジェクト記憶部
341 入力部
342 ページ生成部
343 オブジェクト特定部
344 座標取得部
345 接近検知部
346 領域判定部
347 表示制御部
348 オブジェクト更新部
200
Claims (8)
前記入力手段の接近が検知され、前記表示部における前記オブジェクトを選択するための画像を含む所定領域内に、前記入力手段と対応する座標が示す位置が含まれる場合に、前記オブジェクトを選択するための画像を拡大して表示させる表示制御部と、を有する表示装置。 An approach detection unit that detects the approach of the input means to the display unit on which the object is displayed,
To select the object when the approach of the input means is detected and the position indicated by the coordinates corresponding to the input means is included in the predetermined area including the image for selecting the object on the display unit. A display device having a display control unit for enlarging and displaying an image of.
前記オブジェクトを選択するための画像は、前記矩形領域の角を含む画像である、請求項2記載の表示装置。 The object is a rectangular area, and the image included in the object is a stroke image input by handwriting input by the input means.
The display device according to claim 2, wherein the image for selecting the object is an image including the corners of the rectangular region.
前記オブジェクトを選択するための画像を、前記所定領域と同じ大きさに拡大する、請求項1ないし3の何れか一項に記載の表示装置。 The display control unit
The display device according to any one of claims 1 to 3, wherein an image for selecting the object is enlarged to the same size as the predetermined area.
前記入力手段と対応する座標が示す位置が、前記所定領域外の位置となった場合に、各拡大した前記オブジェクトを選択するための画像を、拡大する前の大きさに戻す、請求項1ないし4の何れか一項に記載の表示装置。 The display control unit
Claim 1 to return the image for selecting each enlarged object to the size before enlargement when the position indicated by the coordinates corresponding to the input means is a position outside the predetermined area. The display device according to any one of 4.
オブジェクトが表示される表示部に対する入力手段の接近を検知し、
前記入力手段の接近が検知され、前記表示部における前記オブジェクトを選択するための画像を含む所定領域内に、前記入力手段と対応する座標が示す位置が含まれる場合に、前記オブジェクトを選択するための画像を拡大して表示させる、表示方法。 A display method using a display device, wherein the display device
Detects the approach of the input means to the display where the object is displayed,
To select the object when the approach of the input means is detected and the position indicated by the coordinates corresponding to the input means is included in the predetermined area including the image for selecting the object in the display unit. A display method that enlarges and displays the image of.
前記入力手段の接近が検知され、前記表示部における前記オブジェクトを選択するための画像を含む所定領域内に、前記入力手段と対応する座標が示す位置が含まれる場合に、前記オブジェクトを選択するための画像を拡大して表示させる、処理を表示装置に実行させる表示プログラム。 Detects the approach of the input means to the display where the object is displayed,
To select the object when the approach of the input means is detected and the position indicated by the coordinates corresponding to the input means is included in the predetermined area including the image for selecting the object on the display unit. A display program that causes a display device to execute processing that enlarges and displays the image of.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019049123A JP2020149633A (en) | 2019-03-15 | 2019-03-15 | Display device, display method, and display program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019049123A JP2020149633A (en) | 2019-03-15 | 2019-03-15 | Display device, display method, and display program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020149633A true JP2020149633A (en) | 2020-09-17 |
Family
ID=72430656
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019049123A Pending JP2020149633A (en) | 2019-03-15 | 2019-03-15 | Display device, display method, and display program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020149633A (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07219700A (en) * | 1994-02-03 | 1995-08-18 | Hitachi Ltd | Information processor |
JPH0816353A (en) * | 1994-06-28 | 1996-01-19 | Sharp Corp | Object display enlarging method |
JP2001118077A (en) * | 1999-10-15 | 2001-04-27 | Ricoh Co Ltd | Device and method for preparing document |
US20110074698A1 (en) * | 2009-09-25 | 2011-03-31 | Peter William Rapp | Device, Method, and Graphical User Interface for Manipulation of User Interface Objects with Activation Regions |
JP2014016948A (en) * | 2012-07-11 | 2014-01-30 | Ntt Docomo Inc | User interface device, user interface method, and program |
WO2016194650A1 (en) * | 2015-06-04 | 2016-12-08 | 株式会社リコー | Information processing device, image display method, and program |
JP2017151491A (en) * | 2014-07-07 | 2017-08-31 | 株式会社リコー | Image display device, image processing system, image processing method, and image processing program |
-
2019
- 2019-03-15 JP JP2019049123A patent/JP2020149633A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07219700A (en) * | 1994-02-03 | 1995-08-18 | Hitachi Ltd | Information processor |
JPH0816353A (en) * | 1994-06-28 | 1996-01-19 | Sharp Corp | Object display enlarging method |
JP2001118077A (en) * | 1999-10-15 | 2001-04-27 | Ricoh Co Ltd | Device and method for preparing document |
US20110074698A1 (en) * | 2009-09-25 | 2011-03-31 | Peter William Rapp | Device, Method, and Graphical User Interface for Manipulation of User Interface Objects with Activation Regions |
JP2014016948A (en) * | 2012-07-11 | 2014-01-30 | Ntt Docomo Inc | User interface device, user interface method, and program |
JP2017151491A (en) * | 2014-07-07 | 2017-08-31 | 株式会社リコー | Image display device, image processing system, image processing method, and image processing program |
WO2016194650A1 (en) * | 2015-06-04 | 2016-12-08 | 株式会社リコー | Information processing device, image display method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9069386B2 (en) | Gesture recognition device, method, program, and computer-readable medium upon which program is stored | |
US11188125B2 (en) | Information processing apparatus, information processing meihod and program | |
JP6812579B2 (en) | Methods and devices for detecting planes and / or quadtrees for use as virtual substrates | |
US10114501B2 (en) | Wearable electronic device using a touch input and a hovering input and controlling method thereof | |
US20150268828A1 (en) | Information processing device and computer program | |
US11907466B2 (en) | Apparatus and method which displays additional information along with a display component in response to the display component being selected | |
US9395838B2 (en) | Input device, input control method, and input control program | |
EP3989051A1 (en) | Input device, input method, medium, and program | |
JP7338330B2 (en) | Display device, display method, program | |
JP2020149633A (en) | Display device, display method, and display program | |
JP7279425B2 (en) | DISPLAY DEVICE, DISPLAY SYSTEM, OPERATING MODE CONTROL METHOD, AND PROGRAM | |
JP2022138285A (en) | Display device, display method and program | |
JP2020154766A (en) | Display device, display method, and display program | |
JP7467842B2 (en) | Display device, display method, and display program | |
US11727896B2 (en) | Apparatus and method for display control, and recording medium | |
JP7443685B2 (en) | Display device, display method, display program | |
US20210027750A1 (en) | Display apparatus, display system, and display method | |
JP7480608B2 (en) | Display device, display method, and program | |
JP7342485B2 (en) | Control device, method, program, and information processing system | |
JP2022147297A (en) | Display device, method for display, and program | |
US11726654B2 (en) | Display apparatus capable of displaying icon corresponding to shape of hand-drafted input, display method, and non-transitory computer-executable medium storing program thereon | |
US11816327B2 (en) | Display apparatus, method for displaying, and non-transitory recording medium | |
JP7508916B2 (en) | Display device, display method, and program | |
JP7215254B2 (en) | Information processing device, display control method, and program | |
JP2022143517A (en) | Display device, method for display, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211223 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221031 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230123 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230516 |