JP6971671B2 - Image display device, image display system and program - Google Patents

Image display device, image display system and program Download PDF

Info

Publication number
JP6971671B2
JP6971671B2 JP2017137881A JP2017137881A JP6971671B2 JP 6971671 B2 JP6971671 B2 JP 6971671B2 JP 2017137881 A JP2017137881 A JP 2017137881A JP 2017137881 A JP2017137881 A JP 2017137881A JP 6971671 B2 JP6971671 B2 JP 6971671B2
Authority
JP
Japan
Prior art keywords
image display
area
display device
sticky note
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017137881A
Other languages
Japanese (ja)
Other versions
JP2018026117A (en
Inventor
智 寺田
洋樹 棟朝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to US15/661,159 priority Critical patent/US20180033175A1/en
Priority to CN201710624499.7A priority patent/CN107665087B/en
Publication of JP2018026117A publication Critical patent/JP2018026117A/en
Application granted granted Critical
Publication of JP6971671B2 publication Critical patent/JP6971671B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は画像表示装置等に関する。 The present invention relates to an image display device and the like.

近年、大型のディスプレイを設けた画像表示装置が普及しつつあることから、当該画像表示装置を電子黒板のように利用して、会議や授業が行われる場面が増えつつある。一方で、個人が所持する中小型の携帯端末も普及が進んでいることから、これを会議室や教室に設置された共用の大型画像表示装置と連携させることで、利用者間での情報共有や意見交換を円滑にし、会議や授業の利便性を向上するための試みが行われている。 In recent years, since an image display device provided with a large display has become widespread, the number of situations where a conference or a class is held by using the image display device like an electronic blackboard is increasing. On the other hand, since small and medium-sized mobile terminals owned by individuals are also becoming widespread, information can be shared among users by linking them with a shared large image display device installed in conference rooms and classrooms. Attempts are being made to facilitate exchanges of opinions and improve the convenience of meetings and classes.

このとき、各利用者は自分が利用しているタブレット状の端末装置から、上述した画像表示装置にメモを送信する発明が開示されている(例えば、特許文献1参照)。 At this time, an invention is disclosed in which each user transmits a memo from the tablet-shaped terminal device he / she is using to the above-mentioned image display device (see, for example, Patent Document 1).

特開2010−205137号公報Japanese Unexamined Patent Publication No. 2010-205137

近年利用者側の端末装置も大型化しており、複数のメモを記載し、必要に応じて画像表示装置に表示させたいという場合がある。しかし、従来は、送信するメモを記載するに過ぎず、端末装置で入力した複数の図形やメモの中から選択して送信するということはできなかった。 In recent years, the size of terminal devices on the user side has also increased, and there are cases where it is desired to write a plurality of memos and display them on an image display device as needed. However, in the past, it was only possible to describe the memo to be transmitted, and it was not possible to select and transmit from a plurality of figures and memos input by the terminal device.

更に上記特許文献1では、貼り付けたメモの属性(例:色、大きさ、形状、重要度、所有者)を指定することはできず、このため、複数のメモが表示装置に貼り付けられた場合には、同様の形状のメモが複数表示されて見づらい・重要なメモとそうでないメモが混在して見づらい・誰が書いたメモか区別できない、という課題があり、円滑な意見交換や情報共有を進める上で障害があった。 Further, in the above Patent Document 1, it is not possible to specify the attributes (eg, color, size, shape, importance, owner) of the pasted memo, and therefore, a plurality of memos are pasted on the display device. In this case, multiple memos with similar shapes are displayed and difficult to see. ・ Important memos and non-important memos are mixed and difficult to see. ・ It is difficult to distinguish who wrote the memo. There was an obstacle in advancing.

また、画像表示装置が大型化していることから、例えばテーブルとして画像表示装置が利用され、その場で入力するといった利用方法が提案されている。このような場合に、手書きされたメモに属性を付する場合、メニューやアイコンからその都度選択する必要があり、使い勝手が悪いといった問題が生じていた。 Further, since the image display device has become large in size, for example, an image display device is used as a table, and a usage method such as inputting on the spot has been proposed. In such a case, when adding an attribute to a handwritten memo, it is necessary to select it from a menu or an icon each time, which causes a problem that it is not easy to use.

上述した課題を解決するために、本発明は、表示された一又は複数の図形の中から図形が選択され、当該選択された図形の属性が判定され、当該属性に基づいて適切に図形を表示させることができる画像表示装置等を提供することである。 In order to solve the above-mentioned problems, the present invention selects a figure from one or more displayed figures, determines the attribute of the selected figure, and appropriately displays the figure based on the attribute. It is to provide an image display device and the like which can be made to do.

上述した課題を解決するために、本発明の画像表示装置は、
文字を含む図形を入力する図形入力手段と、
前記入力された一又は複数の図形が配置された画像を表示する画像表示手段と、
前記表示された画像の一部の領域を特定する領域特定手段と、
前記特定された領域に含まれている図形を取得する図形取得手段と、
前記取得された図形について、当該図形を表示する場合に用いられる図形の属性を判定する属性判定手段と、
前記取得された図形を、前記判定された図形の属性に基づいて表示する図形表示手段と、
を備えることを特徴とする。
In order to solve the above-mentioned problems, the image display device of the present invention is used.
A graphic input means for inputting a graphic including characters, and
An image display means for displaying an image in which one or more input figures are arranged, and an image display means.
An area specifying means for specifying a part of the displayed image, and
A graphic acquisition means for acquiring a graphic included in the specified area, and
With respect to the acquired figure, an attribute determination means for determining the attribute of the figure used when displaying the figure, and an attribute determination means.
A graphic display means for displaying the acquired graphic based on the attribute of the determined graphic, and
It is characterized by having.

本発明の画像表示装置は、
文字を含む図形が配置された画像を表示可能な他の画像表示装置と通信可能な画像表示装置であって、
図形を入力する図形入力手段と、
前記入力された一又は複数の図形が配置された画像を表示する画像表示手段と、
前記表示された画像の一部の領域を特定する領域特定手段と、
前記特定された領域に含まれている図形を取得する図形取得手段と、
前記取得された図形について、前記他の画像表示装置が図形を表示する場合に用いられる当該図形の属性を判定する属性判定手段と、
前記取得された図形と、当該図形の属性とを、他の画像表示装置に表示させるために送信する図形送信手段と、
を備えることを特徴とする。
The image display device of the present invention is
An image display device capable of communicating with another image display device capable of displaying an image in which a figure including characters is arranged.
A figure input means for inputting a figure and
An image display means for displaying an image in which one or more input figures are arranged, and an image display means.
An area specifying means for specifying a part of the displayed image, and
A graphic acquisition means for acquiring a graphic included in the specified area, and
With respect to the acquired figure, an attribute determination means for determining the attribute of the figure used when the other image display device displays the figure, and
A graphic transmission means for transmitting the acquired graphic and the attributes of the graphic on another image display device, and
It is characterized by having.

本発明のプログラムは、コンピュータに、
文字を含む図形を入力する図形入力機能と、
前記入力された一又は複数の図形が配置された画像を表示する画像表示機能と、
前記表示された画像の一部の領域を特定する領域特定機能と、
前記特定された領域に含まれている図形を取得する図形取得機能と、
前記取得された図形について、当該図形を表示する場合に用いられる図形の属性を判定する属性判定機能と、
前記取得された図形を、前記判定された図形の属性に基づいて表示する図形表示機能と、
を実現させることを特徴とする。
The program of the present invention can be applied to a computer.
A figure input function for inputting figures including characters, and
An image display function that displays an image in which one or more input figures are arranged, and
An area identification function that identifies a part of the displayed image, and
A figure acquisition function for acquiring a figure contained in the specified area, and
With respect to the acquired figure, an attribute determination function for determining the attribute of the figure used when displaying the figure, and an attribute determination function.
A graphic display function that displays the acquired graphic based on the attributes of the determined graphic, and
It is characterized by realizing.

本発明のプログラムは、文字を含む図形が配置された画像を表示可能な他の画像表示装置と通信可能なコンピュータに、
図形を入力する図形入力機能と、
前記入力された一又は複数の図形が配置された画像を表示する画像表示機能と、
前記表示された画像の一部の領域を特定する領域特定機能と、
前記特定された領域に含まれている図形を取得する図形取得機能と、
前記取得された図形について、前記他の画像表示装置が図形を表示する場合に用いられる当該図形の属性を判定する属性判定機能と、
前記取得された図形と、当該図形の属性とを、他の画像表示装置に表示させるために送信する図形送信機能と、
を実現させることを特徴とする。
The program of the present invention can be applied to a computer capable of communicating with another image display device capable of displaying an image in which a figure including characters is arranged.
A figure input function for inputting figures and
An image display function that displays an image in which one or more input figures are arranged, and
An area identification function that identifies a part of the displayed image, and
A figure acquisition function for acquiring a figure contained in the specified area, and
With respect to the acquired figure, an attribute determination function for determining the attribute of the figure used when the other image display device displays the figure, and
A graphic transmission function for transmitting the acquired graphic and the attributes of the graphic on another image display device, and
It is characterized by realizing.

本発明の画像表示システムは、
文字を含む図形が配置された画像を表示可能な第1の画像表示装置及び第2の画像表示装置を含む画像表示システムであって、
前記第1の画像表示装置は、
図形を入力する図形入力手段と、
前記入力された一又は複数の図形が配置された画像を表示する画像表示手段と、
前記表示された画像の一部の領域を特定する領域特定手段と、
前記特定された領域に含まれている図形を取得する図形取得手段と、
前記取得された図形について、前記他の画像表示装置が図形を表示する場合に用いられる当該図形の属性を判定する属性判定手段と、
前記取得された図形と、当該図形の属性とを第2の画像表示装置に送信する図形送信手段と、
を備え、
前記第2の画像表示装置は、前記第1の画像表示装置から受信された図形を表示することを特徴とする。
The image display system of the present invention is
An image display system including a first image display device and a second image display device capable of displaying an image in which a figure including characters is arranged.
The first image display device is
A figure input means for inputting a figure and
An image display means for displaying an image in which one or more input figures are arranged, and an image display means.
An area specifying means for specifying a part of the displayed image, and
A graphic acquisition means for acquiring a graphic included in the specified area, and
With respect to the acquired figure, an attribute determination means for determining the attribute of the figure used when the other image display device displays the figure, and
A graphic transmission means for transmitting the acquired graphic and the attributes of the graphic to the second image display device, and
Equipped with
The second image display device is characterized in that a graphic received from the first image display device is displayed.

本発明によれば、画像表示装置において、一又は複数の図形が配置された画像が表示されており、表示された画像から一部の領域が特定される。そして、特定された領域に含まれている図形について、当該図形を表示する場合に用いられる図形の属性を判定する。そして、当該取得された図形を、判定された図形の属性に基づいて表示することができるようになる。 According to the present invention, in the image display device, an image in which one or a plurality of figures are arranged is displayed, and a part of the area is specified from the displayed image. Then, with respect to the figure included in the specified area, the attribute of the figure used when displaying the figure is determined. Then, the acquired figure can be displayed based on the attribute of the determined figure.

第1実施形態におけるシステム全体を説明するための図である。It is a figure for demonstrating the whole system in 1st Embodiment. 第1実施形態における端末装置の機能構成を説明するための図である。It is a figure for demonstrating the functional structure of the terminal apparatus in 1st Embodiment. 第1実施形態における表示装置の機能構成を説明するための図である。It is a figure for demonstrating the functional structure of the display device in 1st Embodiment. 第1実施形態における処理の概要を説明するための図である。It is a figure for demonstrating the outline of the process in 1st Embodiment. 第1実施形態における端末装置と表示装置との処理の流れを説明するシーケンス図である。It is a sequence diagram explaining the flow of processing of a terminal apparatus and a display apparatus in 1st Embodiment. 第1実施形態における動作例を説明するための図である。It is a figure for demonstrating the operation example in 1st Embodiment. 第2実施形態における端末装置の記憶部の構成を説明するための図である。It is a figure for demonstrating the structure of the storage part of the terminal apparatus in 2nd Embodiment. 各実施形態における付箋データ属性判定テーブルのデータの構造の一例である。It is an example of the data structure of the sticky note data attribute determination table in each embodiment. 第2実施形態における端末装置と表示装置との処理の流れを説明するシーケンス図である。It is a sequence diagram explaining the flow of processing of a terminal apparatus and a display apparatus in 2nd Embodiment. 第2実施形態における動作例を説明するための図である。It is a figure for demonstrating the operation example in 2nd Embodiment. 第4実施形態における動作例を説明するための図である。It is a figure for demonstrating the operation example in 4th Embodiment. 第5実施形態における端末装置と表示装置との処理の流れを説明するシーケンス図である。It is a sequence diagram explaining the flow of processing of a terminal apparatus and a display apparatus in 5th Embodiment. 第6実施形態における動作例を説明するための図である。It is a figure for demonstrating the operation example in 6th Embodiment. 第7実施形態における端末装置の処理の流れを説明する為のフロー図である。It is a flow diagram for demonstrating the flow of processing of the terminal apparatus in 7th Embodiment. 第7実施形態における動作例を説明するための図である。It is a figure for demonstrating the operation example in 7th Embodiment. 第8実施形態における端末装置の処理の流れを説明する為のフロー図である。It is a flow diagram for demonstrating the flow of processing of the terminal apparatus in 8th Embodiment. 第8実施形態における動作例を説明するための図である。It is a figure for demonstrating the operation example in 8th Embodiment. 第9実施形態における動作例を説明するための図である。It is a figure for demonstrating the operation example in 9th Embodiment. 第10実施形態における動作例を説明するための図である。It is a figure for demonstrating the operation example in 10th Embodiment. 第13実施形態における動作例を説明するための図である。It is a figure for demonstrating the operation example in 13th Embodiment. 第14実施形態における動作例を説明するための図である。It is a figure for demonstrating the operation example in 14th Embodiment. 第15実施形態における処理フローを説明するための図である。It is a figure for demonstrating the processing flow in 15th Embodiment. 第15実施形態における動作例を説明するための図である。It is a figure for demonstrating the operation example in 15th Embodiment. 第15実施形態における動作例を説明するための図である。It is a figure for demonstrating the operation example in 15th Embodiment. 第16実施形態における処理フローを説明するための図である。It is a figure for demonstrating the processing flow in 16th Embodiment. 第16実施形態における処理フローを説明するための図である。It is a figure for demonstrating the processing flow in 16th Embodiment. 第17実施形態における処理フローを説明するための図である。It is a figure for demonstrating the processing flow in 17th Embodiment.

以下、本発明の画像表示装置を用いた画像表示システム1について説明する。なお、各実施形態は本発明を説明する都合上記載したものであり、本発明の範囲が以下の実施形態に限定されるものではない。 Hereinafter, the image display system 1 using the image display device of the present invention will be described. It should be noted that each embodiment is described for convenience of explaining the present invention, and the scope of the present invention is not limited to the following embodiments.

[1.第1実施形態]
[1.1 システム構成]
まず、第1実施形態について説明する。第1実施形態は、画像表示装置として、タブレット等の可搬型の表示装置である端末装置10と、大型のディスプレイ等の据え置き型の表示装置20とを含んで構成されている。
[1. First Embodiment]
[1.1 System configuration]
First, the first embodiment will be described. The first embodiment includes, as an image display device, a terminal device 10 which is a portable display device such as a tablet, and a stationary display device 20 such as a large display.

端末装置10と、表示装置20とは、接続可能に構成されている。例えば、本実施形態では、LAN(無線LAN、有線LAN)を介して通信可能に接続されている。接続方法としては、他にもBluetooth(登録商標)や、ZigBee(登録商標)といった近距離無線通信等で接続されても良い。すなわち、端末装置10と、表示装置20とが通信可能な接続方式であれば方法を問わないこととする。 The terminal device 10 and the display device 20 are configured to be connectable. For example, in the present embodiment, the connection is possible via a LAN (wireless LAN, wired LAN). As a connection method, a short-range wireless communication such as Bluetooth (registered trademark) or ZigBee (registered trademark) may be used for connection. That is, any method may be used as long as the connection method allows communication between the terminal device 10 and the display device 20.

[1.2 機能構成]
続いて、機能構成について図に基づいて説明する。
[1.2 Function configuration]
Subsequently, the functional configuration will be described with reference to the figure.

[1.2.1 端末装置]
まず、端末装置10の機能構成について、図2に基づいて説明する。端末装置10は、制御部100と、表示部110と、タッチ検出部120と、画像処理部130と、通信部140と、記憶部150とを備えて構成される。
[1.2.1 Terminal device]
First, the functional configuration of the terminal device 10 will be described with reference to FIG. The terminal device 10 includes a control unit 100, a display unit 110, a touch detection unit 120, an image processing unit 130, a communication unit 140, and a storage unit 150.

制御部100は、端末装置10の全体を制御するための機能部である。制御部100は、記憶部150に記憶されている各種プログラムを読み出して実行することにより各種機能を実現しており、例えばCPU(Central Processing Unit)等により構成されている。 The control unit 100 is a functional unit for controlling the entire terminal device 10. The control unit 100 realizes various functions by reading and executing various programs stored in the storage unit 150, and is configured by, for example, a CPU (Central Processing Unit) or the like.

表示部110は、各種コンテンツ等を表示する機能部である。例えば、LCD(liquid crystal display:液晶ディスプレイ)や、有機ELディスプレイ等により構成されている。また、表示部110には、表示領域全体に全体画像が表示されており、当該全体画像に図形が表示されている。 The display unit 110 is a functional unit that displays various contents and the like. For example, it is composed of an LCD (liquid crystal display), an organic EL display, and the like. Further, the display unit 110 displays the entire image in the entire display area, and the figure is displayed in the entire image.

タッチ検出部120は、利用者からのタッチ操作を検出することにより、操作入力を実現するための機能部である。例えば、表示部110と一体に構成されてタッチパネル等により実現される。タッチ操作を検出方法としては、静電容量方式、電磁誘導方式、赤外線方式といった何れかの方法を用いて検出できれば良い。また、検出箇所としても、1点であっても良いし、複数点検出可能であっても良い。 The touch detection unit 120 is a functional unit for realizing an operation input by detecting a touch operation from the user. For example, it is configured integrally with the display unit 110 and realized by a touch panel or the like. As the detection method, the touch operation may be detected by any method such as a capacitance method, an electromagnetic induction method, or an infrared method. Further, the detection point may be one point or may be capable of detecting a plurality of points.

また、タッチ検出部120により、図形が入力されることとなる。例えば、利用者から入力されたタッチされた座標を検出し、検出された座標からストローク情報が記憶される。そして、ストローク情報に基づいて図形を認識して、図形データ152に記憶される。また、当該図形は、そのまま全体画像に表示されることとなる。 In addition, the touch detection unit 120 will input the figure. For example, the touched coordinates input by the user are detected, and the stroke information is stored from the detected coordinates. Then, the figure is recognized based on the stroke information and stored in the figure data 152. In addition, the figure will be displayed as it is in the entire image.

画像処理部130は、画像処理を実現するための機能部である。画像処理部130としては、例えば、入力された図形(手書き文字)から文字認識を行ってテキスト文字を出力したり、表示されている全体画像の中から囲領域の画像を切り出したりといった、各種画像処理が実現される。また、ストローク情報から図形に変換したり、ベクトルデータをラスタデータに変換したりする処理を行う。 The image processing unit 130 is a functional unit for realizing image processing. The image processing unit 130 may perform various images such as performing character recognition from an input figure (handwritten character) and outputting a text character, or cutting out an image in an enclosed area from the entire displayed image. Processing is realized. It also performs processing such as converting stroke information into figures and converting vector data into raster data.

この画像処理部130は、必要に応じて処理毎にプログラムとして記憶部150に記憶され、必要に応じて読み出されて実行されることにより、実現されてもよい。 The image processing unit 130 may be realized by being stored in the storage unit 150 as a program for each processing as necessary, and being read out and executed as necessary.

通信部140は、端末装置10が通信を行う為の機能部である。例えば、IEEE802.11a/b/g/nといった無線LANを利用したり、Bluetooth等の近距離無線通信を利用したりする。なお、LTE通信等により一般的な通信を行っても良い。 The communication unit 140 is a functional unit for the terminal device 10 to perform communication. For example, a wireless LAN such as IEEE802.11a / b / g / n is used, or short-range wireless communication such as Bluetooth is used. In addition, general communication may be performed by LTE communication or the like.

記憶部150は、端末装置10の動作に必要な各種プログラムや、各種データが記憶されている機能部である。記憶部150は、例えば、半導体メモリや、HDD(Hard Disk Drive)等により構成されている。 The storage unit 150 is a functional unit that stores various programs and various data necessary for the operation of the terminal device 10. The storage unit 150 is composed of, for example, a semiconductor memory, an HDD (Hard Disk Drive), or the like.

また、記憶部150には、各種プログラムの他に、図形データ152と、付箋画像データ154とが記憶されている。 Further, in the storage unit 150, in addition to various programs, graphic data 152 and sticky note image data 154 are stored.

図形データ152は、手描き入力される(例えば、ストローク描画される)ことにより記憶されたストローク情報に基づく手書き文字、手書き図形や、他の入力装置(例えば、スキャナ等)から入力された画像、他の装置から受信されて記憶される画像が記憶されている。 The graphic data 152 includes handwritten characters based on stroke information stored by hand-drawn input (for example, stroke drawing), hand-drawn figures, images input from other input devices (for example, a scanner, etc.), and the like. The image received and stored from the device is stored.

例えば、利用者により手書き入力されたストローク情報が集まることにより、一つのグループ化された図形として記憶される。また、スキャナ、デジタルカメラや、画像ファイル等からJPEGデータや、BMPデータといった画像ファイルが記憶される。 For example, stroke information handwritten by the user is collected and stored as one grouped figure. In addition, image files such as JPEG data and BMP data are stored from a scanner, a digital camera, an image file, or the like.

ここで、本明細書における図形とは、文字、記号を含む概念である。ここで文字(記号)は、利用者がタッチペンや手、マウス等で書いた文字である手書き文字と、ASCIIコードやJISコード、Unicode等で示されるテキスト文字とが含まれる。 Here, the figure in the present specification is a concept including characters and symbols. Here, the characters (symbols) include handwritten characters that are characters written by the user with a touch pen, a hand, a mouse, or the like, and text characters indicated by an ASCII code, a JIS code, Unicode, or the like.

したがって、図形データ152には、キーボード等の入力手段で入力されたテキスト文字(列)や、受信されたテキスト文字(列)等が記憶される。この場合、例えばテキスト文字(列)と、表示領域の位置する座標、テキスト領域としての座標も併せて記憶されても良い。 Therefore, the graphic data 152 stores a text character (string) input by an input means such as a keyboard, a received text character (string), and the like. In this case, for example, the text character (string), the coordinates where the display area is located, and the coordinates as the text area may be stored together.

また、図形は、複数の文字である文字列からなる場合もある。すなわち、手書き入力された場合には、第1の時間間隔で入力されたストロークが一つの手書き文字として認識される。また、この手書き文字が連続して入力されることにより、手書き文字列として認識される。これらが、図形として図形データ152に記憶される。 In addition, the figure may consist of a character string which is a plurality of characters. That is, when handwritten input is performed, the stroke input at the first time interval is recognized as one handwritten character. Further, when the handwritten characters are continuously input, the handwritten characters are recognized as a handwritten character string. These are stored in the graphic data 152 as a graphic.

また、各図形は、表示部110の表示領域における座標を記憶していてもよい。そして、各図形が座標にしたがって表示されることにより、全体画像として表示部110に表示されることとなる。 Further, each figure may store the coordinates in the display area of the display unit 110. Then, by displaying each figure according to the coordinates, it is displayed on the display unit 110 as an entire image.

付箋画像データ154は、利用者により図形から一部切り出して生成されるデータである。切り出された一又は複数の図形を付箋画像データと記憶されていても良いし、全体画像から切り抜いた画像を付箋画像データと記憶しても良い。また、切り出した図形がベクトルデータや、ストローク情報に基づく図形の場合には、一度ラスタデータに変換して切り抜いても良い。 The sticky note image data 154 is data generated by a user by partially cutting out a figure. One or more cut-out figures may be stored as sticky note image data, or an image cut out from the entire image may be stored as sticky note image data. If the cut out figure is vector data or a figure based on stroke information, it may be once converted into raster data and cut out.

[1.2.2 表示装置]
つづいて、表示装置20の機能構成について図3に基づいて説明する。図3に示すように、表示装置20は、制御部200と、表示部210と、操作入力部220と、通信部240と、記憶部250とを備えて構成されている。
[1.2.2 Display device]
Subsequently, the functional configuration of the display device 20 will be described with reference to FIG. As shown in FIG. 3, the display device 20 includes a control unit 200, a display unit 210, an operation input unit 220, a communication unit 240, and a storage unit 250.

制御部200は、表示装置20の全体を制御するための機能部である。制御部200は、記憶部250に記憶されている各種プログラムを読み出して実行することにより各種機能を実現しており、例えばCPU(Central Processing Unit)等により構成されている。 The control unit 200 is a functional unit for controlling the entire display device 20. The control unit 200 realizes various functions by reading and executing various programs stored in the storage unit 250, and is configured by, for example, a CPU (Central Processing Unit) or the like.

表示部210は、各種コンテンツ等を表示する機能部である。例えば、LCD(liquid crystal display:液晶ディスプレイ)や、有機ELディスプレイ等により構成されている。また表示部210には全体画像が表示されており、その中に図形が表示される。 The display unit 210 is a functional unit that displays various contents and the like. For example, it is composed of an LCD (liquid crystal display), an organic EL display, and the like. Further, the entire image is displayed on the display unit 210, and a figure is displayed in the entire image.

操作入力部220は、利用者からの操作入力を実現するための機能部である。例えば、外付けのキーボードやマウス、表示部210と一体に構成されてタッチパネル等により実現される。タッチ操作を検出方法としては、静電容量方式、電磁誘導方式、赤外線方式といった何れかの方法を用いて検出できれば良い。また、検出箇所としても、1点であっても良いし、複数点検出可能であっても良い。 The operation input unit 220 is a functional unit for realizing operation input from the user. For example, it is configured integrally with an external keyboard, mouse, and display unit 210, and is realized by a touch panel or the like. As the detection method, the touch operation may be detected by any method such as a capacitance method, an electromagnetic induction method, or an infrared method. Further, the detection point may be one point or may be capable of detecting a plurality of points.

通信部240は、表示装置20が通信を行う為の機能部である。例えば、IEEE802.11a/b/g/nといった無線LANを利用したり、Bluetooth等の近距離無線通信を利用したりする。 The communication unit 240 is a functional unit for the display device 20 to perform communication. For example, a wireless LAN such as IEEE802.11a / b / g / n is used, or short-range wireless communication such as Bluetooth is used.

記憶部250は、表示装置20の動作に必要な各種プログラムや、各種データが記憶されている機能部である。記憶部250は、例えば、半導体メモリや、HDD(Hard Disk Drive)等により構成されている。 The storage unit 250 is a functional unit that stores various programs and various data necessary for the operation of the display device 20. The storage unit 250 is composed of, for example, a semiconductor memory, an HDD (Hard Disk Drive), or the like.

また、記憶部250には、各種プログラムの他に、図形データ252と、付箋画像データ254と、付箋データ256とが記憶されている。 Further, in the storage unit 250, in addition to various programs, graphic data 252, sticky note image data 254, and sticky note data 256 are stored.

図形データ252は、表示装置20において入力された図形と、端末装置10から受信された図形とが記憶される。記憶された図形データが、表示部210の表示領域に表示されることとなる。図形データ252は、図形データ152と同一の種類のデータで記憶されるため、詳細な説明は省略する。 The graphic data 252 stores the graphic input in the display device 20 and the graphic received from the terminal device 10. The stored graphic data will be displayed in the display area of the display unit 210. Since the graphic data 252 is stored as the same type of data as the graphic data 152, detailed description thereof will be omitted.

また、端末装置10から受信されるのが付箋画像データ254である。付箋画像データ254に基づいて、付箋データ256が生成されて記憶される。 Further, the sticky note image data 254 is received from the terminal device 10. The sticky note data 256 is generated and stored based on the sticky note image data 254.

ここで、本実施形態で説明する付箋データとは、図形を一つのまとまりとして管理可能にするデータである。付箋データは、単に表示させるだけでなく、色を変えたり、表示領域内において移動して表示させたりするといったことも可能である。 Here, the sticky note data described in the present embodiment is data that makes it possible to manage figures as one group. The sticky note data can be displayed not only by simply displaying it, but also by changing the color or moving it within the display area.

付箋データとして含まれるものは、付箋画像データに含まれる図形であっても良いし、手書き文字から変換されたテキスト文字であっても良い。また、付箋データは、表示/非表示を切り替えられたり、貼り付け、削除といったことが自由に行えることとしてもよい。 What is included as the sticky note data may be a figure included in the sticky note image data, or may be a text character converted from a handwritten character. Further, the sticky note data may be displayed / hidden, pasted, and deleted freely.

また付箋データは、表示されている他のコンテンツ(例えば、図形や画像)に重畳的に表示されても良いし、単独で表示されても良い。 Further, the sticky note data may be displayed superimposed on other displayed contents (for example, a figure or an image), or may be displayed independently.

[1.3 処理の流れ]
続いて本実施形態における処理の流れについて図に基づいて説明する。
[1.3 Processing flow]
Subsequently, the flow of processing in this embodiment will be described with reference to the drawings.

[1.3.1 処理の概要]
まず、本実施形態における付箋データの生成について説明する。ここでは、端末装置10において実行される場合について説明するが、表示装置20において実行されてもよい。また、後述するように、処理によって端末装置10と、表示装置20とで切り分けて実行されても良い。
[1.3.1 Outline of processing]
First, the generation of sticky note data in this embodiment will be described. Here, the case where it is executed in the terminal device 10 will be described, but it may be executed in the display device 20. Further, as will be described later, the terminal device 10 and the display device 20 may be separated and executed by processing.

まず、図4(a)は、図形として手書き文字列B10「締切り」が表示されている。手書き文字列B10は、表示部110の表示領域上に表示されている。 First, in FIG. 4A, the handwritten character string B10 “deadline” is displayed as a figure. The handwritten character string B10 is displayed on the display area of the display unit 110.

利用者により、この手書き文字列B10を囲むように選択(特定)される。このとき選択されることにより、特定された領域を囲領域R10とする。すなわち、このストロークは、手書き文字列B10を囲むように形成されているため、付箋選択入力であることが認識される。 It is selected (specified) by the user so as to surround the handwritten character string B10. By being selected at this time, the specified area is designated as the surrounding area R10. That is, since this stroke is formed so as to surround the handwritten character string B10, it is recognized that it is a sticky note selection input.

付箋選択入力であることが認識されると、当該手書き文字列B10を含むように囲領域の座標が取得される。この囲領域の座標は、図4(b)の領域R12の座標である。この領域R12に含まれている手書き文字列B10が付箋画像データT10として認識される(図4(c))。 When it is recognized that the sticky note selection input is performed, the coordinates of the surrounding area are acquired so as to include the handwritten character string B10. The coordinates of this surrounding area are the coordinates of the area R12 in FIG. 4 (b). The handwritten character string B10 included in this area R12 is recognized as the sticky note image data T10 (FIG. 4 (c)).

付箋画像データT10と認識されたデータは、他の装置に送信可能である。また、付箋画像データT10から、付箋データH10に変換されたのが図4(d)である。本図においては、付箋データH10と変換されたことにより、手書き文字列「締切り」は、テキスト文字列「締切り」に変換されている。テキスト文字列に変換されることにより、テキスト文字の追加、編集といったことが可能となる。また、付箋データには、色情報、形状、所用者、大きさといった付箋の属性(付箋に付随する情報)が記憶されている。 The data recognized as the sticky note image data T10 can be transmitted to another device. Further, FIG. 4D is converted from the sticky note image data T10 to the sticky note data H10. In this figure, the handwritten character string "deadline" is converted into the text character string "deadline" by being converted into the sticky note data H10. By converting to a text character string, it becomes possible to add or edit text characters. Further, the sticky note data stores the attributes of the sticky note (information attached to the sticky note) such as color information, shape, user, and size.

また、囲領域で選択される図形は複数であっても良い。この場合、図形毎に付箋データを表示することとしても良いし、まとめて一つの付箋データとして表示することとしても良い。また、異なる種類の図形(例えば、文字と画像)が選択された場合は、図形毎に付箋データを表示したり、付箋選択入力をキャンセルしたりしても良い。 Further, a plurality of figures may be selected in the surrounding area. In this case, the sticky note data may be displayed for each figure, or may be collectively displayed as one sticky note data. Further, when different types of figures (for example, characters and images) are selected, sticky note data may be displayed for each figure or the sticky note selection input may be cancelled.

[1.3.2 シーケンス図]
続いて第1実施形態について、図5に基づいて説明する。図5は、付箋データに基となる付箋画像データを送信する送信側の処理と、受信する受信側の処理を表したシーケンス図である。本実施形態では、送信側として端末装置10を、受信側として表示装置20を例に説明する。
[1.3.2 Sequence diagram]
Subsequently, the first embodiment will be described with reference to FIG. FIG. 5 is a sequence diagram showing a process on the transmitting side for transmitting the sticky note image data based on the sticky note data and a process on the receiving side for receiving the sticky note image data. In the present embodiment, the terminal device 10 will be described as an example as the transmitting side, and the display device 20 will be described as an example as the receiving side.

まず、端末装置10で手書き入力が検知された場合(ステップS102;Yes)、入力座標を取得する(ステップS104)。そして取得された座標をストローク情報として記憶する(ステップS106)。 First, when the handwriting input is detected by the terminal device 10 (step S102; Yes), the input coordinates are acquired (step S104). Then, the acquired coordinates are stored as stroke information (step S106).

ここで、囲領域を形成していない場合は(ステップS108;No)、この記憶されたストローク情報は、図形として図形データ152に記憶される。このストローク情報から、例えば手書き文字(列)として記憶されたり、線分等として記憶されたりする方法については、何れかの従来技術を利用すれば良い。 Here, when the surrounding area is not formed (step S108; No), the stored stroke information is stored in the graphic data 152 as a graphic. As for the method of storing the stroke information as, for example, a handwritten character (string) or a line segment, any conventional technique may be used.

ここで、ストロークが囲領域を形成している場合には(ステップS108;Yes)、付箋選択入力と判定し、囲領域の座標を取得する(ステップS110)。 Here, when the stroke forms the surrounding area (step S108; Yes), it is determined that the sticky note selection input is performed, and the coordinates of the surrounding area are acquired (step S110).

ここで、囲領域の座標としては、例えば囲領域を含む座標を抽出すれば良い。また、ここで、囲領域の位置が所定の位置か否かを判定しても良い(ステップS112)。具体的には、例えば入力可能領域のうち、付箋選択入力として認識可能な位置を設定しておき、当該位置で囲領域が形成された場合には付箋選択入力として認識しても良い。 Here, as the coordinates of the surrounding area, for example, the coordinates including the surrounding area may be extracted. Further, here, it may be determined whether or not the position of the surrounding area is a predetermined position (step S112). Specifically, for example, a position that can be recognized as a sticky note selection input may be set in the inputtable area, and if an enclosed area is formed at the position, it may be recognized as a sticky note selection input.

また、表示領域全体において処理を実行する場合には、ステップS112の判定は行われなくても良い。すなわち、ステップS110の次にステップS114に処理を進めても良い。 Further, when the process is executed in the entire display area, the determination in step S112 may not be performed. That is, the process may proceed to step S114 after step S110.

続いて、囲領域に基づいて付箋画像データを取得する(ステップS112;Yes→ステップS114)。すなわち、囲領域に含まれる図形を取得し、付箋画像データとして取得する。そして、取得された付箋画像データを受信側である表示装置20に送信する(ステップS116)。 Subsequently, the sticky note image data is acquired based on the surrounding area (step S112; Yes → step S114). That is, the figure included in the surrounding area is acquired and acquired as sticky note image data. Then, the acquired sticky note image data is transmitted to the display device 20 on the receiving side (step S116).

受信側である表示装置20は、付箋画像データを受信すると(ステップS150)、付箋画像データに基づいて付箋データに変換する(ステップS152)。具体的には、付箋データに手書き文字(列)が含まれている場合には、テキスト文字(列)に変換する処理を行う。なお、そのまま手書き文字(列)として表示しても良い。 When the display device 20 on the receiving side receives the sticky note image data (step S150), it converts it into sticky note data based on the sticky note image data (step S152). Specifically, when the sticky note data contains handwritten characters (columns), the process of converting them into text characters (columns) is performed. In addition, it may be displayed as a handwritten character (column) as it is.

続いて、付箋データの表示位置を決定し(ステップS154)、付箋データを表示する(ステップS156)。 Subsequently, the display position of the sticky note data is determined (step S154), and the sticky note data is displayed (step S156).

付箋データの表示位置の決定の仕方としては複数の方法が考えられる。まず、初期設定として付箋データを表示する位置を決めておき、当該初期設定の位置に付箋データを表示する方法が考えられる。他にも、付箋画像データを送信した端末装置10によって、付箋データの表示位置を決めても良い。例えば、画面を4等分し、端末毎に表示するエリアを決めてもよい。 A plurality of methods can be considered as a method of determining the display position of the sticky note data. First, a method is conceivable in which a position for displaying the sticky note data is determined as an initial setting, and the sticky note data is displayed at the position of the initial setting. Alternatively, the display position of the sticky note data may be determined by the terminal device 10 that has transmitted the sticky note image data. For example, the screen may be divided into four equal parts, and an area to be displayed may be determined for each terminal.

[1.4 動作例]
続いて、本実施形態における動作例について図6を用いて説明する。図6(a)は、端末装置10の表示領域に、2つの図形が表示されている。手書き文字列B100「アイデア」と、手書き文字列B110「締切り」が表示されている。
[1.4 Operation example]
Subsequently, an operation example in this embodiment will be described with reference to FIG. In FIG. 6A, two figures are displayed in the display area of the terminal device 10. The handwritten character string B100 "idea" and the handwritten character string B110 "deadline" are displayed.

このとき、利用者によって、矩形R100が入力される。この入力が囲領域であることから、付箋選択入力であると認識される。矩形R100に含まれている手書き文字列B100が、付箋画像データとして取得されることとなる。 At this time, the rectangle R100 is input by the user. Since this input is an enclosed area, it is recognized as a sticky note selection input. The handwritten character string B100 included in the rectangle R100 will be acquired as sticky note image data.

この付箋画像データが、端末装置10から表示装置20に送信される。表示装置20は、付箋画像データに基づいて付箋データH100を表示する。付箋データH100においては、手書き文字列「アイデア」は、テキスト文字列「アイデア」に変換されて表示されている。 This sticky note image data is transmitted from the terminal device 10 to the display device 20. The display device 20 displays the sticky note data H100 based on the sticky note image data. In the sticky note data H100, the handwritten character string "idea" is converted into a text character string "idea" and displayed.

この付箋データH100は、利用者により自由に移動することが可能であり、大きさを変えることも可能である。また、本実施形態のように、テキスト文字に変換されることで、文字(列)の編集を行うことも可能である。 The sticky note data H100 can be freely moved by the user and can be changed in size. Further, as in the present embodiment, it is also possible to edit a character (string) by converting it into a text character.

このように、本実施形態によれば、利用者は必要な図形を囲む操作を行うことで、一の画像表示装置で入力された図形を、他の画像表示装置に付箋データとして送信し、表示することができる。 As described above, according to the present embodiment, the user performs an operation of surrounding the necessary figure to transmit the figure input by one image display device to another image display device as sticky note data and display the figure. can do.

これにより、例えば利用者が自分で使っている端末装置(例えば、タブレット等の画像表示装置)を利用して入力操作を行うことができる。また、複数の利用者がいた場合であっても、各端末装置から図形を入力し、送信することが可能となる。 Thereby, for example, the input operation can be performed by using the terminal device (for example, an image display device such as a tablet) that the user is using by himself / herself. Further, even if there are a plurality of users, it is possible to input and transmit a figure from each terminal device.

[2.第2実施形態]
第2実施形態について説明する。第2実施形態は、付箋選択入力において、選択入力の方法に基づいて付箋データの属性についても認識する処理である。すなわち、選択入力された領域(囲領域)の属性に応じて、付箋データの属性が認識される。
[2. Second Embodiment]
The second embodiment will be described. The second embodiment is a process of recognizing the attribute of the sticky note data based on the method of the selection input in the sticky note selection input. That is, the attribute of the sticky note data is recognized according to the attribute of the selected and input area (enclosed area).

なお、本実施形態におけるシステムの構成は上述した第1実施形態と同じであり、その構成等の説明は省略する。本実施形態では、第1実施形態と異なる箇所を中心に説明する。 The system configuration in this embodiment is the same as that in the first embodiment described above, and the description of the configuration and the like will be omitted. In this embodiment, the parts different from those in the first embodiment will be mainly described.

[2.1 データ構成]
図7は、第1実施形態における記憶部150を、記憶部150bに置き換えるものである。図7に示すように、記憶部150bには、図形データ152と、付箋画像データ154と、付箋データ属性判定テーブル156とが記憶されている。
[2.1 Data structure]
FIG. 7 replaces the storage unit 150 in the first embodiment with the storage unit 150b. As shown in FIG. 7, the storage unit 150b stores graphic data 152, sticky note image data 154, and sticky note data attribute determination table 156.

付箋データ属性判定テーブル156は、付箋選択入力として入力される囲領域の属性、本実施形態では囲領域ストローク(形状)に応じて、付箋データの属性を記憶しているテーブルである。例えば、図8(a)に示すように、領域の属性であるストローク形状(例えば、「円形」)に対応づけて、付箋データの属性(例えば、色として「赤」)が記憶されている。 The sticky note data attribute determination table 156 is a table that stores the attributes of the sticky note data according to the attributes of the surrounding area input as the sticky note selection input, and in the present embodiment, the surrounding area stroke (shape). For example, as shown in FIG. 8A, the attribute of the sticky note data (for example, “red” as a color) is stored in association with the stroke shape (for example, “circular”) which is an attribute of the area.

なお、本実施形態では、付箋データの属性として色を例に説明するが、例えば大きさ(フォントサイズ)や、フォントの種類、付箋データの境界色といった他の表示パターンを記憶しても良い。 In this embodiment, a color is described as an example of the attribute of the sticky note data, but other display patterns such as a size (font size), a font type, and a boundary color of the sticky note data may be stored.

[2.2 処理の流れ]
本実施形態の処理の流れを図9のシーケンス図に基づいて説明する。なお、第1実施形態と同一の処理には、同一の符号を付してその説明を省略する。
[2.2 Processing flow]
The processing flow of this embodiment will be described with reference to the sequence diagram of FIG. The same processing as that of the first embodiment is designated by the same reference numerals and the description thereof will be omitted.

検出されたストロークが囲領域であり、付箋選択入力と判定された場合には(ステップS102〜ステップS112;Yes)、囲ったストロークの形状を判定し(ステップS202)、当該判定されたストロークの形状に基づいて付箋データの属性(付箋データ属性)を判定する(ステップS204)。具体的には、付箋データ属性判定テーブル156に基づいて付箋データ属性を判定する。 When the detected stroke is the enclosed area and it is determined that the sticky note is selected (step S102 to S112; Yes), the shape of the enclosed stroke is determined (step S202), and the shape of the determined stroke is determined. The attribute of the sticky note data (sticky note data attribute) is determined based on (step S204). Specifically, the sticky note data attribute is determined based on the sticky note data attribute determination table 156.

続いて、囲領域に基づいて、付箋画像データを取得する(ステップS114)。その後、取得した付箋画像データと、付箋データ属性とを表示装置20に送信する(ステップS206)。なお、他の情報(例えば、付箋の大きさ等の種々の情報)と、付箋データ属性とを含めた付箋付加情報として送信しても良い。 Subsequently, the sticky note image data is acquired based on the surrounding area (step S114). After that, the acquired sticky note image data and the sticky note data attribute are transmitted to the display device 20 (step S206). In addition, other information (for example, various information such as the size of the sticky note) and the sticky note data attribute may be transmitted as additional sticky note information.

また、本実施形態における処理の流れは一例であり、データに矛盾が生じない範囲で前後しても良い。例えば、最初に囲領域に基づいて付箋画像データを取得した後に、付箋データ属性を判定しても良い(ステップS206→ステップS204)。 Further, the processing flow in this embodiment is an example, and may be changed back and forth within a range in which there is no contradiction in the data. For example, the sticky note data attribute may be determined after first acquiring the sticky note image data based on the surrounding area (step S206 → step S204).

表示装置20は、付箋画像データと付箋データ属性とを受信する(ステップS252)。この後、付箋データに変換し、付箋データ表示位置を決定する(ステップS152→S154)。 The display device 20 receives the sticky note image data and the sticky note data attribute (step S252). After that, it is converted into sticky note data and the sticky note data display position is determined (step S152 → S154).

そして、受信された付箋データ属性に基づいて、付箋データの属性を決定する(ステップS254)。そして、決定された付箋データの属性に基づいて、付箋データを表示する(ステップS256)。 Then, the attribute of the sticky note data is determined based on the received sticky note data attribute (step S254). Then, the sticky note data is displayed based on the determined attribute of the sticky note data (step S256).

[2.3 動作例]
第2実施形態の動作例について、図10に基づいて説明する。図10(a)は、第1実施形態において、端末装置10から送信された付箋画像データに基づく付箋データH100が、表示装置20に表示されている図である。
[2.3 Operation example]
An operation example of the second embodiment will be described with reference to FIG. FIG. 10A is a diagram in which the sticky note data H100 based on the sticky note image data transmitted from the terminal device 10 is displayed on the display device 20 in the first embodiment.

この状態で、手書き文字列B110である「締切り」が、ストロークで示された囲領域R110で選択されている。この場合、手書き文字列B110を含む付箋画像データが取得され、表示装置20に送信される。また、このとき、併せて付箋データの属性が送信される。 In this state, the "deadline", which is the handwritten character string B110, is selected in the enclosed area R110 indicated by the stroke. In this case, the sticky note image data including the handwritten character string B110 is acquired and transmitted to the display device 20. At this time, the attributes of the sticky note data are also transmitted.

表示装置20は、受信された付箋画像データから変換された付箋データH110が表示されているのが図10(b)である。第1実施形態の付箋データH100のように、囲領域のストロークの形状が矩形である場合と、本実施形態の付箋データH110のように、囲領域のストロークの形状が円形である場合とで付箋データの属性が変化している。すなわち、付箋データH100と、付箋データH110とでは異なる色で表示されている。 FIG. 10B shows the display device 20 displaying the sticky note data H110 converted from the received sticky note image data. A sticky note is used depending on whether the stroke shape of the surrounding area is rectangular as in the sticky note data H100 of the first embodiment or the stroke shape of the surrounding area is circular as in the sticky note data H110 of the present embodiment. The attributes of the data are changing. That is, the sticky note data H100 and the sticky note data H110 are displayed in different colors.

このように、本実施形態によれば、利用者が図形を選択するときに選択する形状を切り替えることで、付箋データの属性を容易に切り替えることが可能となる。 As described above, according to the present embodiment, it is possible to easily switch the attributes of the sticky note data by switching the shape selected when the user selects the figure.

また、付箋データの属性を決定する囲領域のストロークの形状と、付箋データの属性とは、利用者が任意に設定することとしても良い。これにより、好きな形状に、好きな属性(例えば、色)を割り当てることが可能となる。 Further, the shape of the stroke of the surrounding area for determining the attribute of the sticky note data and the attribute of the sticky note data may be arbitrarily set by the user. This makes it possible to assign a favorite attribute (for example, a color) to a favorite shape.

また、付箋データ属性判定テーブル156は、表示装置20に記憶し、付箋データの属性判定を表示装置20で行っても良い。すなわち、端末装置10から、付箋画像データと、囲領域のストローク情報が表示装置20に送信される。そして、表示装置20において、当該送信された情報から、付箋データの属性を判定することとしても良い。 Further, the sticky note data attribute determination table 156 may be stored in the display device 20 and the attribute determination of the sticky note data may be performed by the display device 20. That is, the sticky note image data and the stroke information of the surrounding area are transmitted from the terminal device 10 to the display device 20. Then, the display device 20 may determine the attribute of the sticky note data from the transmitted information.

[3.第3実施形態]
第3実施形態について説明する。第3実施形態は、付箋データの属性として、色等の表示属性について設定したが、内容的な属性を設定しても良い。
[3. Third Embodiment]
The third embodiment will be described. In the third embodiment, the display attribute such as color is set as the attribute of the sticky note data, but the content attribute may be set.

第3実施形態は、第2実施形態において、図8(a)の付箋データ属性判定テーブル156を、図8(b)の付箋データ属性判定テーブルに置き換えたものである。 The third embodiment replaces the sticky note data attribute determination table 156 of FIG. 8A with the sticky note data attribute determination table of FIG. 8B in the second embodiment.

すなわち、ストローク形状に対応づけて、属性(例えば、重要度として「高」)が記憶されることとする。すなわち、付箋データの属性として、重要度といった内容的な属性を付加することが可能である。これらの属性は、例えば「消去可能」「消去不可」といった属性や、所有者を示す属性(例えば、円形の場合はAさん、矩形の場合はBさん)といったものであってもよい。 That is, the attribute (for example, "high" as the importance) is stored in association with the stroke shape. That is, it is possible to add a content attribute such as importance as an attribute of the sticky note data. These attributes may be, for example, attributes such as "erasable" and "non-erasable", and attributes indicating the owner (for example, Mr. A in the case of a circle and Mr. B in the case of a rectangle).

当該決定された付箋データの属性に応じて、付箋データが表示される(図9のステップS254→S256)。これにより、付箋データは、付箋データ属性に応じた挙動を行うことになる。例えば、重要度が「高」の付箋データは「消去不可」と設定されている場合、当該付箋データについて利用者は消去することができないといったことになる。 The sticky note data is displayed according to the attribute of the determined sticky note data (steps S254 → S256 in FIG. 9). As a result, the sticky note data behaves according to the sticky note data attribute. For example, if the sticky note data having a high importance is set to "cannot be erased", the user cannot erase the sticky note data.

また、表示装置20は、これらの属性に応じて表示形式を変更しても良い。例えば、重要度が高いものは「赤」で表示したり、「大きく」表示したりしても良い。 Further, the display device 20 may change the display format according to these attributes. For example, items of high importance may be displayed in "red" or "large".

このように、本実施形態によれば、単なる表示以外についても、描画パターンに基づいて、付箋データの属性を容易に付すことが可能となる。 As described above, according to the present embodiment, it is possible to easily attach the attribute of the sticky note data based on the drawing pattern other than the simple display.

[4.第4実施形態]
第4実施形態について説明する。第4実施形態は付箋データに属性を付す場合に、ストロークの形状ではない、囲領域の属性に基づいて設定する。
[4. Fourth Embodiment]
The fourth embodiment will be described. In the fourth embodiment, when an attribute is attached to the sticky note data, it is set based on the attribute of the surrounding area, not the shape of the stroke.

第4実施形態は、第3実施形態において、図8(b)の付箋データ属性判定テーブル156を、図8(c)の付箋データ属性判定テーブルに置き換えたものである。すなわち、囲領域の属性として、例えば「右回り」「左回り」といった属性に応じて、付箋データの属性(本実施形態では所有者「A」)とが対応づけられている。 The fourth embodiment replaces the sticky note data attribute determination table 156 of FIG. 8 (b) with the sticky note data attribute determination table of FIG. 8 (c) in the third embodiment. That is, as the attribute of the surrounding area, the attribute of the sticky note data (owner "A" in this embodiment) is associated with the attribute such as "clockwise" and "counterclockwise".

例えば、囲領域の属性として、他にも例えば「2本指で囲領域のストロークが検出された」や、「他の操作と共に囲領域が入力された」といったことを設定することも可能である。 For example, as the attribute of the surrounding area, it is also possible to set, for example, "a stroke of the surrounding area is detected with two fingers" or "the surrounding area is input together with other operations". ..

また、付箋データの属性としては、上述したように、大きさや、色、重要度といった他の属性が設定されても良い。 Further, as the attribute of the sticky note data, other attributes such as size, color, and importance may be set as described above.

例えば、第4実施形態の動作例を図11に示す。端末装置10には、手書き文字列B200と、手書き文字列B210とが表示されている。そして、手書き文字列B200は、右回りに囲領域R200が選択され、手書き文字列B210は左回りに囲領域R210が選択されている。 For example, an operation example of the fourth embodiment is shown in FIG. The handwritten character string B200 and the handwritten character string B210 are displayed on the terminal device 10. The enclosed area R200 is selected clockwise for the handwritten character string B200, and the enclosed area R210 is selected counterclockwise for the handwritten character string B210.

ここで、囲領域により選択され、変換された付箋データが表示装置20に表示されている。付箋データH200と、付箋データH210とは属性が異なっているため、表示も異なったものとなっている。 Here, the sticky note data selected and converted by the surrounding area is displayed on the display device 20. Since the attributes of the sticky note data H200 and the sticky note data H210 are different, the display is also different.

このように、本実施形態によれば、付箋選択入力が行われるときの、囲領域の選択の仕方に応じて、付箋データの属性を容易に変更することが可能となる。 As described above, according to the present embodiment, it is possible to easily change the attributes of the sticky note data according to the method of selecting the surrounding area when the sticky note selection input is performed.

[5.第5実施形態]
第5実施形態は、付箋データの認識を表示装置20側で行う場合の実施形態である。本実施形態については、第1実施形態の図5で示した処理フローを、図12で置き換えた実施形態である。図12に基づいて、本実施形態の処理の流れについて説明する。
[5. Fifth Embodiment]
The fifth embodiment is an embodiment in which the sticky note data is recognized on the display device 20 side. The present embodiment is an embodiment in which the processing flow shown in FIG. 5 of the first embodiment is replaced with FIG. The processing flow of this embodiment will be described with reference to FIG.

端末装置10において、図形を含む画像が表示されている。この中から、付箋データとした図形を、囲領域で選択して、表示装置20に画像データを送信する(ステップS302)。 An image including a figure is displayed on the terminal device 10. From this, a figure as sticky note data is selected in the enclosed area, and image data is transmitted to the display device 20 (step S302).

表示装置20は、画像データを受信すると(ステップS310)、受信された画像データから、図形認識処理を実行し(ステップS312)、画像から図形を取得する。 When the display device 20 receives the image data (step S310), the display device 20 executes the figure recognition process from the received image data (step S312), and acquires the figure from the image.

ここで、画像から図形を取得する方法としては種々の方法が考えられるが、画像データと共にストローク情報が送信されている場合にはストローク情報を参照して図形を認識する。また、画像がベクトルデータであった場合は、ベクトルデータを参照して図形を認識する。また、ラスタデータであった場合には、図形の形状から図形を認識する。 Here, various methods can be considered as a method of acquiring the figure from the image, but when the stroke information is transmitted together with the image data, the figure is recognized by referring to the stroke information. If the image is vector data, the figure is recognized by referring to the vector data. Further, in the case of raster data, the figure is recognized from the shape of the figure.

ここで、認識された図形の中に所定の図形データが検出された場合、検出された図形の形状を判定する(ステップS314;Yes→ステップS316)。例えば、囲領域の形状を検出したり、囲領域の中に他の図形が含まれている場合の図形の形状を検出したりする。そして、検出された形状は、付箋選択入力であると判定し、検出された領域に含まれる図形を、付箋画像データとして取得する(ステップS318)。 Here, when predetermined graphic data is detected in the recognized graphic, the shape of the detected graphic is determined (step S314; Yes → step S316). For example, the shape of the surrounding area is detected, or the shape of a figure when another figure is included in the surrounding area is detected. Then, the detected shape is determined to be a sticky note selection input, and the figure included in the detected area is acquired as sticky note image data (step S318).

そして、付箋画像データから付箋データに変換し、付箋データの表示位置を決定し(ステップS320)、付箋データの属性を決定する(ステップS322)。そして、変換された付箋データ、付箋データの表示位置、属性に基づいて付箋データを表示する(ステップS324)。 Then, the sticky note image data is converted into sticky note data, the display position of the sticky note data is determined (step S320), and the attributes of the sticky note data are determined (step S322). Then, the sticky note data is displayed based on the converted sticky note data, the display position of the sticky note data, and the attributes (step S324).

そして、画像に含まれる付箋データを全て表示していない場合には処理を繰り返し実行し(ステップS326;No→ステップS316)、表示された場合には本処理を終了する(ステップS326;Yes)。 Then, if all the sticky note data included in the image is not displayed, the process is repeatedly executed (step S326; No → step S316), and if it is displayed, this process is terminated (step S326; Yes).

このように本実施形態によれば、端末装置10から一括して画像を送信することにより、必要な付箋データを表示装置20で表示することができる。その都度付箋画像データを送信する必要が無くなり、端末装置10、表示装置20間の通信のトラフィックを減らすことが可能となる。また、端末装置10より表示装置20の方が処理能力が高い場合には、一括して処理できるという効果が期待できる。 As described above, according to the present embodiment, necessary sticky note data can be displayed on the display device 20 by collectively transmitting images from the terminal device 10. It is not necessary to transmit the sticky note image data each time, and it is possible to reduce the communication traffic between the terminal device 10 and the display device 20. Further, when the display device 20 has a higher processing capacity than the terminal device 10, the effect of batch processing can be expected.

[6.第6実施形態]
続いて、第6実施形態について説明する。第6実施形態は、付箋選択入力として選択される囲領域に基づいて付箋画像データを取得する場合、囲領域から外れていても、同じ図形グループの場合は、付箋画像データとして取得する場合の実施形態である。
[6. 6th Embodiment]
Subsequently, the sixth embodiment will be described. In the sixth embodiment, when the sticky note image data is acquired based on the surrounding area selected as the sticky note selection input, even if it is out of the surrounding area, in the case of the same graphic group, it is acquired as the sticky note image data. It is a form.

本実施形態では、第1実施形態の図5の処理フローのステップS114において、囲領域に基づいて付箋画像データを取得している。すなわち、第1実施形態は囲領域に含まれる図形を付箋画像データとして取得した。 In the present embodiment, the sticky note image data is acquired based on the surrounding area in step S114 of the processing flow of FIG. 5 of the first embodiment. That is, in the first embodiment, the figure included in the surrounding area was acquired as sticky note image data.

本実施形態は、当該図形の一部が囲領域に含まれている場合は、当該図形を付箋画像データとして取得することとする。 In the present embodiment, when a part of the figure is included in the surrounding area, the figure is acquired as sticky note image data.

図13を参照して説明する。図13の手書き文字列B400は、「アイデア」で一つの図形を構成している。すなわち、ストローク情報に基づいて、「ア」等の手書き文字が構成されている。そして、手書き文字「イ」「デ」「ア」が集まり、手書き文字列「アイデア」が構成されている。 This will be described with reference to FIG. The handwritten character string B400 in FIG. 13 is composed of an "idea". That is, handwritten characters such as "a" are configured based on the stroke information. Then, the handwritten characters "i", "de", and "a" are gathered to form the handwritten character string "idea".

ここで、囲領域R400には、「アイデ」の部分が含まれている。しかし、「アイデ」が含まれる図形は手書き文字列B400「アイデア」である。したがって、この場合、「アイデア」の図形が囲領域に含まれる図形として取得される。 Here, the surrounding area R400 includes a portion of "idea". However, the figure including the "ide" is the handwritten character string B400 "idea". Therefore, in this case, the figure of the "idea" is acquired as the figure included in the surrounding area.

そして、表示装置20の表示画面には、付箋データH400として「アイデア」が表示されることとなる。すなわち、手書き文字列「アイデア」から、テキスト文字列「アイデア」に変換され、付箋データとして表示されることになっている。 Then, the "idea" is displayed as the sticky note data H400 on the display screen of the display device 20. That is, the handwritten character string "idea" is converted into the text character string "idea" and displayed as sticky note data.

このように、本実施形態によれば、利用者が手書き文字列を初めとする図形を選択する場合、当該図形が含まれる領域を選択すれば良い。 As described above, according to the present embodiment, when the user selects a figure including a handwritten character string, the area including the figure may be selected.

[7.第7実施形態]
第7実施形態について説明する。第7実施形態は、囲領域により選択された付箋画像データについて、送信前に選択動作を行う場合の実施形態である。
[7. Seventh Embodiment]
The seventh embodiment will be described. The seventh embodiment is an embodiment in which the sticky note image data selected by the surrounding area is selected before transmission.

第7実施形態は、第1実施形態において図5で示した端末装置10の処理を、図14の処理フローに置き換えた実施形態である。なお、図5と同一の処理については、同一の符号を付してその説明を省略する。 The seventh embodiment is an embodiment in which the processing of the terminal device 10 shown in FIG. 5 in the first embodiment is replaced with the processing flow of FIG. The same processing as in FIG. 5 is designated by the same reference numerals and the description thereof will be omitted.

囲領域に基づいて付箋画像データを取得した後(ステップS114)、囲領域に対するタッチ操作があったか否かを判定する(ステップS502)。ここで、タッチ操作があった場合は取得した付箋画像データを表示装置20に送信する(ステップS116)。 After acquiring the sticky note image data based on the surrounding area (step S114), it is determined whether or not there is a touch operation on the surrounding area (step S502). Here, when there is a touch operation, the acquired sticky note image data is transmitted to the display device 20 (step S116).

本実施形態における動作例を図15に示す。図15(a)は、囲領域R500により、手書き文字列B500が選択されている。この時点で、利用者が囲領域R500の中をタッチする(タップ操作する)と、付箋画像データが表示装置20に送信される。これにより、図15(b)に示すように付箋データH500が表示される。 An operation example in this embodiment is shown in FIG. In FIG. 15A, the handwritten character string B500 is selected by the surrounding area R500. At this point, when the user touches (tap operation) the inside of the surrounding area R500, the sticky note image data is transmitted to the display device 20. As a result, the sticky note data H500 is displayed as shown in FIG. 15 (b).

このように、本実施形態によれば、囲領域により付箋画像データが選択された後に利用者が任意のタイミングで付箋画像データを送信することができる。これにより、例えば、複数の付箋データを表示する場合に、利用者が好きな順序で表示させたりすることが可能となる。 As described above, according to the present embodiment, the user can transmit the sticky note image data at an arbitrary timing after the sticky note image data is selected by the surrounding area. As a result, for example, when displaying a plurality of sticky note data, the user can display them in a desired order.

なお、ステップS502の処理としては、ステップS114の後に実行しているのは一例であり、例えばステップS114の前に実行しても良い。すなわち、タッチ操作が検出された後に、付箋画像データが取得されることとしても良い。 The process of step S502 is executed after step S114 as an example, and may be executed before step S114, for example. That is, the sticky note image data may be acquired after the touch operation is detected.

また、ステップS502が検出タイミングとしては所定の時間タイミングを判断しても良い。例えば、5秒以内にタッチ操作がなければ付箋画像データはキャンセル(選択されなかったことなる)としても良い。 Further, step S502 may determine a predetermined time timing as the detection timing. For example, if there is no touch operation within 5 seconds, the sticky note image data may be canceled (it means that it has not been selected).

[8.第8実施形態]
第8実施形態について説明する。第8実施形態は、囲領域により選択された付箋画像データについて、送信前にキャンセル動作を行う場合の実施形態である。
[8. Eighth Embodiment]
The eighth embodiment will be described. The eighth embodiment is an embodiment in which the sticky note image data selected by the surrounding area is canceled before transmission.

第8実施形態は、第1実施形態において図5で示した端末装置10の処理フローを、図16の処理フローに置き換えた実施形態である。なお、図5と同一の処理については、同一の符号を付してその説明を省略する。 The eighth embodiment is an embodiment in which the processing flow of the terminal device 10 shown in FIG. 5 in the first embodiment is replaced with the processing flow of FIG. The same processing as in FIG. 5 is designated by the same reference numerals and the description thereof will be omitted.

囲領域に基づいて付箋画像データを取得した後(ステップS114)、囲領域の領域外に対するタッチ操作があったか否かを判定する(ステップS522)。ここで、領域外のタッチ操作があった場合は取得した付箋画像データをキャンセルし、表示装置20に付箋画像データを送信しない(ステップS524)。 After acquiring the sticky note image data based on the enclosed area (step S114), it is determined whether or not there is a touch operation on the outside of the enclosed area (step S522). Here, when there is a touch operation outside the area, the acquired sticky note image data is canceled and the sticky note image data is not transmitted to the display device 20 (step S524).

他方、領域外にタッチ操作が検出されなかった場合には、取得した付箋画像データを送信する(ステップS522;No→ステップS116)。なお、領域外に対するタッチ操作が有ったか否かの判定は、所定時間内にタッチされたか否かで判定する。例えば、3秒以内にタッチされなかった場合には、ステップS522はNoとして、取得した付箋画像データを表示装置20に送信する。 On the other hand, when the touch operation is not detected outside the area, the acquired sticky note image data is transmitted (step S522; No → step S116). It should be noted that the determination as to whether or not there was a touch operation outside the area is determined by whether or not the touch was made within a predetermined time. For example, if the touch is not made within 3 seconds, the step S522 is set to No, and the acquired sticky note image data is transmitted to the display device 20.

本実施形態における動作例を図17に示す。図17(a)は、囲領域R520により、手書き文字列B520が選択されている。この時点で、利用者が囲領域R520の領域外のP520をタッチする(タップ操作する)と、囲領域R520により選択された付箋画像データがキャンセルされる。 An operation example in this embodiment is shown in FIG. In FIG. 17A, the handwritten character string B520 is selected by the surrounding area R520. At this point, when the user touches (tap operation) P520 outside the area of the surrounding area R520, the sticky note image data selected by the surrounding area R520 is canceled.

すなわち、図17(b)に示すように、表示装置20には付箋データがキャンセルされたことにより表示されていない。 That is, as shown in FIG. 17B, the sticky note data is not displayed on the display device 20 due to the cancellation.

このように、本実施形態によれば、囲領域により付箋画像データが選択された後に利用者が付箋画像データをキャンセルすることができる。これにより、例えば、不要な図形を選択してしまった場合でも、キャンセルすることにより、表示装置に表示させないことが可能となる。 As described above, according to the present embodiment, the user can cancel the sticky note image data after the sticky note image data is selected by the surrounding area. As a result, for example, even if an unnecessary figure is selected, it can be canceled so that it cannot be displayed on the display device.

[9.第9実施形態]
第9実施形態について説明する。第9実施形態は、ストローク情報から付箋選択入力ではなく、通常の図形入力に切り替える実施形態である。
[9. 9th Embodiment]
A ninth embodiment will be described. The ninth embodiment is an embodiment in which the stroke information is switched to a normal graphic input instead of the sticky note selection input.

本実施形態は、上述した実施形態と組み合わせて説明することができるが、例えば、第8実施形態と組み合わせた場合について説明する。 This embodiment can be described in combination with the above-described embodiment, but for example, a case where it is combined with the eighth embodiment will be described.

すなわち、第8実施形態、図16のステップS524において付箋画像データをキャンセルする処理を実行しているが、このとき、ストローク情報に基づいて端末装置10上で実際に線図を描画しても良い。 That is, although the process of canceling the sticky note image data is executed in step S524 of the eighth embodiment, at this time, a line diagram may actually be drawn on the terminal device 10 based on the stroke information. ..

この場合の動作例を図18に示す。図18(a)は、第8実施形態の図17(a)と同様であり、手書き文字列B520の周りを囲領域R520で選択している。そして、囲領域R520の領域外のP520が利用者によりタッチされている。 An operation example in this case is shown in FIG. FIG. 18A is the same as FIG. 17A of the eighth embodiment, and the handwritten character string B520 is selected by the surrounding area R520. Then, the P520 outside the area of the surrounding area R520 is touched by the user.

この場合、図18(b)に示すように、囲領域R520は、そのまま線図である図形B522として表示されている。すなわち、付箋選択入力のストローク情報が、そのまま図形描画のストローク情報として利用されることとなる。 In this case, as shown in FIG. 18B, the surrounding area R520 is displayed as a graphic figure B522 as it is. That is, the stroke information of the sticky note selection input is used as it is as the stroke information of drawing the figure.

このように、本実施形態によれば、付箋選択入力と、図形の描画入力とを切り替えて利用者は入力することができる。この切替えは、他の実施形態と組み合わせても良い。例えば、囲領域の形状によって切り替えても良いし、囲領域の属性によって切り替えても良い。また、第7実施形態において、囲領域内がタッチされた場合が図形の描画入力(すなわち付箋画像データが送信されない)とし、何もされない場合に付箋画像データが送信されるという構成としても良い。 As described above, according to the present embodiment, the user can switch between the sticky note selection input and the graphic drawing input. This switching may be combined with other embodiments. For example, it may be switched according to the shape of the surrounding area or may be switched according to the attribute of the surrounding area. Further, in the seventh embodiment, the drawing input of the figure (that is, the sticky note image data is not transmitted) is set when the inside of the surrounding area is touched, and the sticky note image data is transmitted when nothing is done.

[10.第10実施形態]
第10実施形態について説明する。第10実施形態は、囲領域で図形を選択した後に、メニュー表示を行って動作を行う実施形態である。
[10. 10th Embodiment]
The tenth embodiment will be described. The tenth embodiment is an embodiment in which a menu is displayed and an operation is performed after selecting a figure in the surrounding area.

本実施形態の動作例について、図19を参照して説明する。図19(a)は、手書き文字列B600を、囲領域R600により選択した場合の図である。このとき、端末装置10の表示画面にはメニュー表示M600がされている。 An operation example of this embodiment will be described with reference to FIG. FIG. 19A is a diagram when the handwritten character string B600 is selected by the surrounding area R600. At this time, the menu display M600 is displayed on the display screen of the terminal device 10.

ここで利用者により、メニュー表示M600に表示されているメニューからこの後の動作を選択することにより、付箋画像データに対する挙動が決定する。例えば、「付箋転送」を選択した場合には、図19(b)に示すように、付箋データH600が表示される。 Here, the user selects the subsequent operation from the menu displayed on the menu display M600, thereby determining the behavior for the sticky note image data. For example, when "sticky note transfer" is selected, the sticky note data H600 is displayed as shown in FIG. 19B.

このときの付箋データの属性についてはメニューから選択して設定されることとしても良い。また描画処理や、画像転送といった種々の挙動が選択できることとしても良い。 The attributes of the sticky note data at this time may be selected and set from the menu. Further, it may be possible to select various behaviors such as drawing processing and image transfer.

このように、本実施形態によればメニュー表示を利用することにより、付箋画像データに対する挙動を利用者が複数選択するといったことが可能となる。 As described above, according to the present embodiment, by using the menu display, it is possible for the user to select a plurality of behaviors for the sticky note image data.

[11.第11実施形態]
第11実施形態について説明する。第11実施形態は、囲領域の中に図形が含まれている場合に付箋画像データと認識する場合について説明する。
[11. 11th Embodiment]
The eleventh embodiment will be described. An eleventh embodiment describes a case where a figure is included in the surrounding area and is recognized as sticky note image data.

上述実施形態では、囲領域に含まれている図形を取得し、付箋画像データとしていた。例えば、第1実施形態における図5では、ステップS114において、囲領域に基づいて付箋画像データを取得していた。 In the above-described embodiment, the figure included in the surrounding area is acquired and used as sticky note image data. For example, in FIG. 5 in the first embodiment, the sticky note image data was acquired based on the surrounding area in step S114.

ここで、囲領域の中に図形データが含まれていない場合には、付箋画像データは取得されないこととしても良い。 Here, if the graphic data is not included in the surrounding area, the sticky note image data may not be acquired.

すなわち、ステップS114において、囲領域に基づいて、囲領域に含まれる図形データを取得する。この場合、囲領域に図形データが含まれていない場合には、付箋選択入力がキャンセルされることにする。すなわち、この場合付箋画像データは取得されず、表示装置20にも送信されないこととなる。 That is, in step S114, graphic data included in the surrounding area is acquired based on the surrounding area. In this case, if the enclosed area does not contain graphic data, the sticky note selection input is canceled. That is, in this case, the sticky note image data is not acquired and is not transmitted to the display device 20.

また、付箋画像データが取得されない場合、囲領域として入力されたストローク情報に基づいて線分を描画しても良い。 Further, when the sticky note image data is not acquired, a line segment may be drawn based on the stroke information input as the surrounding area.

このような構成とすることで、図形が含まれている箇所を囲むように選択することで、付箋データが表示装置で表示され、図形が含まれていない場合には線分が描画されることとなる。 With such a configuration, the sticky note data is displayed on the display device by selecting so as to surround the place where the figure is included, and the line segment is drawn when the figure is not included. It becomes.

[12.第12実施形態]
第12実施形態について説明する。第12実施形態は、端末装置10から付箋画像データを送信するときに、端末装置10が保有している情報が送信される実施形態である。
[12. 12th Embodiment]
A twelfth embodiment will be described. A twelfth embodiment is an embodiment in which information held by the terminal device 10 is transmitted when the sticky note image data is transmitted from the terminal device 10.

例えば、端末装置10には、種々の情報が記憶されている。例えば、端末装置10が保有する情報としては、IPアドレスや、端末装置固有の識別情報といった設定情報や、ログイン名(ユーザ名)や、手書き入力したユーザ名等の利用者情報といった種々の情報が記憶されている。なお、設定情報及び利用者情報を併せて端末装置10の環境情報として以下説明する。 For example, various information is stored in the terminal device 10. For example, the information possessed by the terminal device 10 includes various information such as setting information such as an IP address and identification information unique to the terminal device, and user information such as a login name (user name) and a user name input by handwriting. It is remembered. The setting information and the user information will be described below as environmental information of the terminal device 10.

これらの、端末装置10に記憶されている環境情報を、第1実施形態のステップS116で表示装置20に送信する。 These environmental information stored in the terminal device 10 is transmitted to the display device 20 in step S116 of the first embodiment.

ここで、環境情報は、予め記憶されている情報であっても良いし、利用者が設定・記憶する情報であっても良い。また、端末固有情報(端末の製造識別情報、MACアドレス等)のように、工場出荷時に設定されている情報であってもよい。 Here, the environmental information may be information stored in advance, or may be information set / stored by the user. Further, it may be information set at the time of shipment from the factory, such as terminal-specific information (terminal manufacturing identification information, MAC address, etc.).

また、ログイン情報の他にも、手書き入力図形に紐付けられた利用者情報(ユーザ名)であっても良い。この利用者情報は、端末のログイン情報であったり、入力装置(例えばタッチペン等)に紐付けられている情報であっても良い。 Further, in addition to the login information, user information (user name) associated with the handwritten input figure may be used. This user information may be login information of a terminal or information associated with an input device (for example, a touch pen or the like).

これらの環境情報が表示装置20に送信されることにより、ステップS152において、環境情報といった端末装置10が保有している情報に基づいて、付箋の色を変えたり、付箋の大きさ、透過率を変えるといった属性を変えることが可能となる。 By transmitting these environmental information to the display device 20, in step S152, the color of the sticky note can be changed, and the size and transmittance of the sticky note can be changed based on the information held by the terminal device 10 such as the environmental information. It is possible to change attributes such as changing.

[13.第13実施形態]
第13実施形態について、説明する。第13実施形態は、第12実施形態において、付箋画像データとともに送信された属性情報や、環境情報に基づいて、表示装置20で表示形態を変更する実施形態である。
[13. 13th Embodiment]
The thirteenth embodiment will be described. The thirteenth embodiment is an embodiment in which the display form is changed by the display device 20 based on the attribute information transmitted together with the sticky note image data and the environmental information in the twelfth embodiment.

具体的には、表示装置20は、属性に基づいて表示したりすることを選択できたり、環境情報を表示する(例えば、利用者名を付箋データと併せて表示したりする)ことを行う。例えば、付箋データと併せてユーザ名を表示したり、送信された端末のIPアドレスや、マシン名等を表示したりする。 Specifically, the display device 20 can select to display based on the attribute, or display the environmental information (for example, display the user name together with the sticky note data). For example, the user name is displayed together with the sticky note data, the IP address of the transmitted terminal, the machine name, and the like are displayed.

これらの、属性の有効/無効の切替えや、環境情報の表示/非表示の切り替えは、表示装置20で行うことが可能である。 The display device 20 can be used to switch between valid / invalid attributes and display / non-display of environmental information.

本実施形態における動作例を、図20に示す。図20(a)は、環境情報を「ON」としている場合の表示装置20を示す図である。例えば、領域R700により、利用者表示が「ON」に設定されている。 An operation example in this embodiment is shown in FIG. FIG. 20A is a diagram showing a display device 20 when the environmental information is set to “ON”. For example, the user display is set to "ON" by the area R700.

この場合、付箋データH700の近傍に利用者名「A」が表示されている。また、付箋データ710の近傍には利用者名「B」が表示されている。 In this case, the user name "A" is displayed in the vicinity of the sticky note data H700. Further, the user name "B" is displayed in the vicinity of the sticky note data 710.

このとき、領域R700の選択を操作することにより、利用者表示を「OFF」にした場合が図20(b)である。図20(b)では、付箋データH700、付箋データH710の近傍に利用者名は表示されていない。 At this time, FIG. 20B shows a case where the user display is turned “OFF” by operating the selection of the area R700. In FIG. 20B, the user name is not displayed in the vicinity of the sticky note data H700 and the sticky note data H710.

このように、本実施形態によれば、環境情報の表示/非表示を、表示装置20において行うことが可能となる。なお、環境情報の表示/非表示の切替えは、端末装置10が行ってもよい。また、例えば、全体の設定としての表示/非表示を切り替えても良いし、付箋データ毎に切り替えても良い。また、囲領域の形によって、表示/非表示を切り替えても良い。 As described above, according to the present embodiment, the display device 20 can display / hide the environmental information. The terminal device 10 may switch the display / non-display of the environmental information. Further, for example, the display / non-display as the whole setting may be switched, or may be switched for each sticky note data. In addition, display / non-display may be switched depending on the shape of the surrounding area.

[14.第14実施形態]
第14実施形態について説明する。第14実施形態では、環境情報や属性を利用して、付箋データの表示/非表示を切り替える実施形態である。
[14. 14th Embodiment]
The fourteenth embodiment will be described. The fourteenth embodiment is an embodiment in which display / non-display of sticky note data is switched by using environmental information and attributes.

例えば、付箋データ毎に属性や、環境情報がそれぞれ記憶されている。そこで、利用者により、表示したい付箋データを一括で選択して表示したり、非表示とするといったことが可能である。 For example, attributes and environmental information are stored for each sticky note data. Therefore, it is possible for the user to collectively select and display or hide the sticky note data to be displayed.

本実施形態における動作例を図21に示す。図21では、囲領域R800において、表示される付箋データが選択されている。具体的には、利用者Aの付箋データを表示し、利用者Bの付箋データを非表示と選択されている。 An operation example in this embodiment is shown in FIG. In FIG. 21, the sticky note data to be displayed is selected in the enclosed area R800. Specifically, it is selected that the sticky note data of the user A is displayed and the sticky note data of the user B is hidden.

この場合、例えば、図20(a)と比較すると、利用者Aが環境情報として記憶されている付箋データH800は表示されているが、利用者Bが環境情報として記憶されている付箋データは表示されていない。 In this case, for example, as compared with FIG. 20A, the sticky note data H800 in which the user A is stored as environmental information is displayed, but the sticky note data in which the user B is stored as environmental information is displayed. It has not been.

なお、上述した実施形態では、環境情報を例に説明したが、例えば、色や形といった付箋データの属性を指定して表示/非表示を切り替えても良い。また、表示/非表示の切替えは、端末装置10から切り替えることとしても良い。 In the above-described embodiment, the environmental information has been described as an example, but for example, the display / non-display may be switched by designating the attributes of the sticky note data such as the color and the shape. Further, the display / non-display may be switched from the terminal device 10.

更に、環境情報や属性のうち、複数を組み合わせても良い。例えば、Aさんの重要度が高い付箋データや、Bさんの赤の付箋データといった組み合わせで表示/非表示を切り替えても良い。 Further, a plurality of environmental information and attributes may be combined. For example, the display / non-display may be switched by combining the sticky note data of Mr. A with high importance and the red sticky note data of Mr. B.

[15.第15実施形態]
第15実施形態について説明する。上述した実施形態の説明では、端末装置10と、表示装置20とが通信を行う場合について説明したが、端末装置10又は表示装置20単体で処理を実行する場合についての実施形態について説明する。
[15. Fifteenth Embodiment]
The fifteenth embodiment will be described. In the description of the above-described embodiment, the case where the terminal device 10 and the display device 20 communicate with each other has been described, but the embodiment in the case where the processing is executed by the terminal device 10 or the display device 20 alone will be described.

図22は、端末装置10又は表示装置20で実行される処理を説明するための処理フローである。第2実施形態の動作を、各装置だけで実現するための処理である。なお、図22の処理を実行する装置において、図7で示した記憶部のデータを記憶しているものとする。 FIG. 22 is a processing flow for explaining the processing executed by the terminal device 10 or the display device 20. This is a process for realizing the operation of the second embodiment only by each device. It is assumed that the device that executes the process of FIG. 22 stores the data of the storage unit shown in FIG. 7.

また、図9に示した処理フローと同一の処理については同一の符号を付して、その説明を省略する。図9では、付箋データ(付箋画像データ、付箋データ属性)を取得(認識)するのが端末装置10であって、付箋データを表示するのが表示装置20であったが、図22の処理は同一の装置で実現される。 Further, the same processing as the processing flow shown in FIG. 9 is designated by the same reference numerals, and the description thereof will be omitted. In FIG. 9, the terminal device 10 acquires (recognizes) the sticky note data (sticky note image data, sticky note data attribute), and the display device 20 displays the sticky note data. It is realized by the same device.

すなわち、表示されている図形の中から、手書き入力により、囲ったストロークの形状から、付箋データの属性を判定する(ステップS102;Yes→S104→S106→S108;Yes→S110→S112;Yes→S202→S204)。そして、囲領域に基づいて付箋画像データが取得される(ステップS114)。 That is, the attribute of the sticky note data is determined from the shape of the enclosed stroke by handwriting input from the displayed figures (step S102; Yes → S104 → S106 → S108; Yes → S110 → S112; Yes → S202. → S204). Then, the sticky note image data is acquired based on the surrounding area (step S114).

取得された付箋画像データを、付箋データに変換し(ステップS152)、付箋データの表示位置を決定する(ステップS154)。また、付箋データ属性を決定すると(ステップS254)、付箋データを表示する(ステップS256)。 The acquired sticky note image data is converted into sticky note data (step S152), and the display position of the sticky note data is determined (step S154). Further, when the sticky note data attribute is determined (step S254), the sticky note data is displayed (step S256).

ここで、付箋データとして表示されるのは、もとの選択された図形を置き換えて表示しても良いし、更に表示(例えば、別領域)に表示しても良い。例えば、図23は、端末装置10で実現した場合の画面例の一例である。 Here, what is displayed as sticky note data may be displayed by replacing the originally selected figure, or may be further displayed in a display (for example, another area). For example, FIG. 23 is an example of a screen example realized by the terminal device 10.

図23(a)で示したように、手書き文字列B800を、囲領域R800で選択した場合の図である。このとき、図23(b)のように、手書き文字列B800が、付箋データH800として置き換わって表示されている。 As shown in FIG. 23A, it is a figure when the handwritten character string B800 is selected in the surrounding area R800. At this time, as shown in FIG. 23B, the handwritten character string B800 is replaced and displayed as the sticky note data H800.

図24(a)では、手書き文字入力エリアと、図形表示エリア(付箋データ表示エリア)とが分かれている状態の図である。例えば、手書き文字列B850が、表示画面下部の手書き文字入力エリアに入力・表示されている。 FIG. 24A is a diagram showing a state in which the handwritten character input area and the graphic display area (sticky note data display area) are separated. For example, the handwritten character string B850 is input / displayed in the handwritten character input area at the bottom of the display screen.

ここで、手書き文字列B850が閉領域R850により選択されることで、付箋データH850が表示される。このとき、手書き文字列B850とは別に付箋データH850が表示されることとなる。なお、上述した実施形態で説明したように、例えば図24(b)の付箋データH850には、入力者(所有者)の名称として、例えば「Aさん」と表示させることも可能である。 Here, the handwritten character string B850 is selected by the closed area R850, so that the sticky note data H850 is displayed. At this time, the sticky note data H850 is displayed separately from the handwritten character string B850. As described in the above-described embodiment, for example, the sticky note data H850 in FIG. 24B can be displayed as, for example, "Mr. A" as the name of the input person (owner).

このように、本実施形態によれば、同一の装置であっても、同様の処理を実行することが可能となる。なお、本実施形態では第2実施形態のフローを置き換えて説明したが、他の実施形態においても、付箋画像データ及び付箋データ属性を判定し、付箋画像データ及び付箋データ属性に基づいて表示することが可能なことは勿論である。 As described above, according to the present embodiment, it is possible to execute the same processing even with the same apparatus. In this embodiment, the flow of the second embodiment is replaced with the description, but also in other embodiments, the sticky note image data and the sticky note data attribute are determined and displayed based on the sticky note image data and the sticky note data attribute. Of course it is possible.

また、説明の都合上、付箋データに変換することとして説明しているが、例えば、付箋画像データと、付箋データの属性とに基づいて直接表示しても良いことは勿論である。 Further, for convenience of explanation, it is described as being converted into sticky note data, but of course, it may be directly displayed based on the sticky note image data and the attributes of the sticky note data, for example.

[16.第16実施形態]
第16実施形態について説明する。第15実施形態に加えて、一度付箋データとして記憶する実施形態について説明する。
[16. 16th Embodiment]
The sixteenth embodiment will be described. In addition to the fifteenth embodiment, an embodiment that is once stored as sticky note data will be described.

図25及び図26は、端末装置10又は表示装置20で実行される処理を説明するための処理フローである。第2実施形態の動作を、各装置だけで実現するための処理である。なお、図25及び図26の処理を実行する装置において、図7で示した記憶部のデータを記憶しているものとする。 25 and 26 are process flows for explaining the process executed by the terminal device 10 or the display device 20. This is a process for realizing the operation of the second embodiment only by each device. It is assumed that the device that executes the processes of FIGS. 25 and 26 stores the data of the storage unit shown in FIG. 7.

また、図9に示した処理フローと同一の処理については同一の符号を付して、その説明を省略する。図9では、付箋データ(付箋画像データ、付箋データ属性)を取得(認識)するのが端末装置10であって、付箋データを表示するのが表示装置20であったが、図25と、図26の処理は同一の装置で実現される。 Further, the same processing as the processing flow shown in FIG. 9 is designated by the same reference numerals, and the description thereof will be omitted. In FIG. 9, the terminal device 10 acquires (recognizes) the sticky note data (sticky note image data, sticky note data attribute), and the display device 20 displays the sticky note data. The processing of 26 is realized by the same device.

すなわち、図25の処理が実行されると、利用者の操作により、付箋画像データと、付箋データ属性とが取得され(ステップS102〜S114)、付箋画像データ及び付箋データ属性とが記憶される(ステップS602)。 That is, when the process of FIG. 25 is executed, the sticky note image data and the sticky note data attribute are acquired (steps S102 to S114) by the operation of the user, and the sticky note image data and the sticky note data attribute are stored (steps S102 to S114). Step S602).

また、図26の処理が実行されると、ステップS602により記憶されている付箋画像データ及び付箋データ属性とを読み出して(ステップS652)、付箋データに変換されて表示される(ステップS152〜ステップS256)。 Further, when the process of FIG. 26 is executed, the sticky note image data and the sticky note data attribute stored in step S602 are read out (step S652), converted into sticky note data, and displayed (steps S152 to S256). ).

このように、本実施形態によれば、同一の装置であっても、同様の処理を実行することが可能となる。なお、本実施形態では第2実施形態のフローを置き換えて説明したが、他の実施形態においても、付箋画像データ及び付箋データ属性を端末装置に記憶し、当該記憶された付箋画像データ及び付箋データ属性に基づいて表示することが可能なことは勿論である。 As described above, according to the present embodiment, it is possible to execute the same processing even with the same apparatus. In this embodiment, the flow of the second embodiment is replaced with the description, but also in other embodiments, the sticky note image data and the sticky note data attribute are stored in the terminal device, and the stored sticky note image data and the sticky note data are stored. Of course, it is possible to display based on the attributes.

また、一度付箋データを記憶させることで、異なるプログラム、プロセス上で付箋データのやり取りをするといったことが可能となる。また、付箋データの記憶先として、外部記憶装置(例えば、USBメモリ等)を指定することで、直接接続されていない他の装置で表示させることが可能となる。 In addition, by storing the sticky note data once, it becomes possible to exchange the sticky note data on different programs and processes. Further, by designating an external storage device (for example, a USB memory or the like) as the storage destination of the sticky note data, it is possible to display the sticky note data on another device that is not directly connected.

[17.第17実施形態]
第17実施形態について説明する。第17実施形態は、上述した実施形態に加えて、付箋データの送信するタイミングについて異なる場合について説明するものである。
[17. 17th Embodiment]
The seventeenth embodiment will be described. The seventeenth embodiment describes a case where the timing of transmitting the sticky note data is different in addition to the above-described embodiment.

すなわち、上述した実施形態(例えば、第1実施形態)では、図形を囲む操作をトリガーとして付箋データを送信することとしたが、記入後一定時間無操作状態が継続したことをもって図形が特定され、特定された図形が付箋データとして送信される。 That is, in the above-described embodiment (for example, the first embodiment), the sticky note data is transmitted by using the operation surrounding the figure as a trigger, but the figure is specified when the non-operation state continues for a certain period of time after the entry. The specified figure is transmitted as sticky note data.

この場合、前回に一定時間無操作状態が継続したタイミングからのデータが収まる領域を矩形領域として切り出し、付箋データとして送信する。本実施形態の処理について、図27を用いて説明する。なお、図27は、図5の処理フローを置き換えたものであり、同一の処理には同一の符号を付し、説明を省略する。 In this case, the area where the data from the timing when the no-operation state was continued for a certain period of time last time is cut out as a rectangular area and transmitted as sticky note data. The processing of this embodiment will be described with reference to FIG. 27. Note that FIG. 27 replaces the processing flow of FIG. 5, and the same processing is designated by the same reference numerals, and the description thereof will be omitted.

ストローク情報が記憶されたあと、一定時間が経過したか否かを判定する(ステップS702)。ここで、一定時間が経過した場合には、付箋画像データとなる矩形領域の座標を取得する(ステップS704)。そして、矩形領域の位置が所定の領域内である場合には(ステップS706;Yes)、矩形領域に基づいて付箋画像データを取得する(ステップS708)。 After the stroke information is stored, it is determined whether or not a certain time has elapsed (step S702). Here, when a certain time has elapsed, the coordinates of the rectangular area to be the sticky note image data are acquired (step S704). Then, when the position of the rectangular area is within the predetermined area (step S706; Yes), the sticky note image data is acquired based on the rectangular area (step S708).

例えば、図6の例によれば「アイデア」と手書きを行った後に一定時間無操作状態を継続させることによって、「アイデア」と記載された部分が収まる形に矩形領域を切り出す。この矩形領域の切り出しにおいては、当該手書きが収まる矩形領域で切り出してもよいし、手書き文字の傾きを考慮して、切り出す矩形領域の角度を調整するなどしても構わない。矩形領域の調整を行うことで矩形R100と同等のデータが生成されることになる。 For example, according to the example of FIG. 6, a rectangular area is cut out so that the portion described as the "idea" can be accommodated by continuing the non-operation state for a certain period of time after handwriting the "idea". In cutting out the rectangular area, the handwriting may be cut out in the rectangular area where the handwriting fits, or the angle of the rectangular area to be cut out may be adjusted in consideration of the inclination of the handwritten characters. By adjusting the rectangular area, data equivalent to that of the rectangle R100 will be generated.

また、ステップS702において付箋判定ONとは、通常の手書き入力と付箋データの入力の区別が必要となるため、通常の手書き入力と、付箋データの入力で、入力モードを変えるなどの操作を行ってもよい。付箋データの入力モードが「ON」になっていたり、付箋データ入力用のペンモードが選択された後に手書き入力されたりした場合に、付箋判定がONとなる。そして、付箋判定がONの場合には、付箋画像データが取得される。 Further, in step S702, since it is necessary to distinguish between normal handwriting input and sticky note data input when sticky note determination is ON, an operation such as changing the input mode between normal handwriting input and sticky note data input is performed. It is also good. The sticky note determination is turned ON when the sticky note data input mode is set to "ON" or when handwriting input is performed after the pen mode for sticky note data input is selected. Then, when the sticky note determination is ON, the sticky note image data is acquired.

具体的には、通常の手書き入力を行うモード(手書き入力モード)と、付箋データに変換可能な手書き入力を行うモード(付箋データ入力モード)とが選択可能である。ここで、付箋データ入力モードが選択され、手書き入力が行われると、本実施形態の処理が実行される。すなわち、手書き入力後、所定時間が経過後に付箋データ(付箋画像データ)に変換される。ここで、通常の入力モードである手書き入力モードで入力された手書き入力は、所定時間が経過しても付箋データ(付箋画像データ)に変換されない。このように、特定の入力モードとして、例えば付箋データ入力モードが選択された場合には、付箋データに変換される。 Specifically, a mode for performing normal handwriting input (handwriting input mode) and a mode for performing handwriting input that can be converted into sticky note data (sticky note data input mode) can be selected. Here, when the sticky note data input mode is selected and handwriting input is performed, the process of the present embodiment is executed. That is, it is converted into sticky note data (sticky note image data) after a predetermined time has elapsed after handwriting input. Here, the handwriting input input in the handwriting input mode, which is a normal input mode, is not converted into sticky note data (sticky note image data) even after a predetermined time has elapsed. As described above, when, for example, the sticky note data input mode is selected as the specific input mode, the data is converted into sticky note data.

そして、例えば第1実施形態で説明した様に、入力された図形を囲む(ストロークにより囲領域が形成される)と、付箋データ(付箋画像データ)に変換される。なお、本実施形態においても、入力された図形を囲む動作により、所定時間経過前に付箋データに変換するという動作としてもよい。 Then, for example, as described in the first embodiment, when the input figure is surrounded (the surrounding area is formed by the stroke), it is converted into sticky note data (sticky note image data). In addition, also in this embodiment, the operation of surrounding the input figure may be performed to convert the data into sticky note data before the lapse of a predetermined time.

なお、付箋判定ONは、付箋データの入力用モードの切り替えであっても良いし、モードONスイッチ等であってもよい。また、所定の操作(例えば、ペンのボタンを押しながら操作する、片手でタッチしつつ手書き入力を行う、2本指で操作する)の場合には、付箋判定がONと判定されてもよい。 The sticky note determination ON may be a mode for switching the sticky note data input, a mode ON switch, or the like. Further, in the case of a predetermined operation (for example, the operation is performed while pressing the button of the pen, the handwriting input is performed while touching with one hand, the operation is performed with two fingers), the sticky note determination may be determined to be ON.

また、システムによっては、所定領域に入力された場合は全て付箋画像データと判定しても良いし、手書き入力されたものは全て付箋画像データに変換しても良い。 Further, depending on the system, if it is input in a predetermined area, it may be determined that it is all sticky note image data, or if it is input by handwriting, it may be converted into sticky note image data.

また、上述した実施形態では「矩形領域」として説明しているが、囲領域(閉じられた領域)であれば良く、円形、楕円形、三角形、台形といった種々の形でもよい。また、利用者が領域の形を設定してもよい。 Further, although it is described as a "rectangular region" in the above-described embodiment, it may be an enclosed region (closed region) and may have various shapes such as a circle, an ellipse, a triangle, and a trapezoid. In addition, the user may set the shape of the area.

[18.変形例]
本発明は上述した各実施の形態に限定されるものではなく、種々の変更が可能である。すなわち、本発明の要旨を逸脱しない範囲内において適宜変更した技術的手段を組み合わせて得られる実施の形態についても本発明の技術的範囲に含まれる。
[18. Modification example]
The present invention is not limited to the above-described embodiments, and various modifications can be made. That is, an embodiment obtained by combining technical means appropriately modified within a range not deviating from the gist of the present invention is also included in the technical scope of the present invention.

また、上述した実施形態では、端末装置10から付箋画像データを表示装置20に送信することとして説明したが、送信先の端末は表示装置でなくても良い。例えば、画像形成装置に送信することにより、印刷したり、PDFとして保存したりすることとしても良い。 Further, in the above-described embodiment, the sticky note image data is transmitted from the terminal device 10 to the display device 20, but the transmission destination terminal does not have to be the display device. For example, it may be printed or saved as a PDF by transmitting it to an image forming apparatus.

また、当該付箋画像データを、メールで送信することとしてもよいし、SNSに送信する(アップロードする)こととしても良いし、クラウドに保存することとしても良い。また、選択された付箋データを、記録媒体に保存することとしても良い。 Further, the sticky note image data may be transmitted by e-mail, may be transmitted (uploaded) to the SNS, or may be stored in the cloud. Further, the selected sticky note data may be stored in a recording medium.

また、実施形態でも説明したが、画像表示装置として端末装置、表示装置として説明したが、同一の装置で構成することも可能である。また、端末装置と、表示装置とをクラウドを介して接続しても良いことは勿論である。 Further, as described in the embodiment, the image display device has been described as a terminal device and a display device, but it is also possible to configure the same device. Of course, the terminal device and the display device may be connected via the cloud.

クラウドを利用する場合は、端末装置から付箋画像データをクラウドサーバを介して表示装置に送信することとしても良い。また、端末装置、表示装置の一部の処理をクラウドサーバで処理を実行することとしても良い。 When using the cloud, the sticky note image data may be transmitted from the terminal device to the display device via the cloud server. Further, a part of the processing of the terminal device and the display device may be executed by the cloud server.

また、各機能はプログラムで構成されていても良いし、ハードウェアで構成されても良い。そして、プログラムで実現されている場合は、記録媒体に記録されており、当該記録媒体からプログラムを読み出して実行しても良いし、ネットワークに保存され、ダウンロードして実行しても良い。 Further, each function may be configured by a program or may be configured by hardware. When it is realized by a program, it is recorded on a recording medium, and the program may be read from the recording medium and executed, or may be stored in a network and downloaded and executed.

また、上述した実施形態では、タッチ検出部として操作をタッチパネルとし、タッチ操作(タップ操作)を例に説明したが、例えばマウス等の外部入力装置で、クリック操作等により操作が行われてもよい。 Further, in the above-described embodiment, the operation is a touch panel as the touch detection unit, and the touch operation (tap operation) has been described as an example. However, the operation may be performed by a click operation or the like with an external input device such as a mouse. ..

また、上述した実施形態では、表示装置は、表示部と、操作入力部とを備えている例を説明したが、本実施形態に開示した発明を実施するためには、他の方式であってもよい事は勿論である。例えば、表示部210としてプロジェクタを利用し、操作入力部220として人感センサを利用してもよい。そして、操作入力部220、表示部210に制御用のコンピュータを接続することにより、表示システムとして実現されてもよい。 Further, in the above-described embodiment, the example in which the display device includes the display unit and the operation input unit has been described, but in order to carry out the invention disclosed in the present embodiment, it is another method. Of course, it is also good. For example, a projector may be used as the display unit 210, and a motion sensor may be used as the operation input unit 220. Then, it may be realized as a display system by connecting a control computer to the operation input unit 220 and the display unit 210.

また、上述した実施形態は、説明の都合上、それぞれ別に説明している部分があるが、技術的に可能な範囲で組み合わせて実行してもよいことは勿論である。例えば、第17実施形態の操作を、他の実施形態と組み合わせて実行してもよい。 Further, the above-described embodiments are described separately for convenience of explanation, but it is needless to say that they may be combined and executed within a technically possible range. For example, the operation of the 17th embodiment may be performed in combination with other embodiments.

このように、本明細書に記載した各実施形態は、矛盾の無い範囲で組み合わせて実行することができる。 As described above, the embodiments described in the present specification can be combined and executed within a consistent range.

また、上述した実施形態において、領域を選択することで領域を特定することとして説明している。ここで、領域を特定する方法としては、選択以外にも入力や、判定といった種々の方法が含まれるものとする。 Further, in the above-described embodiment, it is described that the region is specified by selecting the region. Here, it is assumed that the method for specifying the area includes various methods such as input and determination in addition to selection.

また、実施形態において各装置で動作するプログラムは、上述した実施形態の機能を実現するように、CPU等を制御するプログラム(コンピュータを機能させるプログラム)である。そして、これら装置で取り扱われる情報は、その処理時に一時的に一時記憶装置(例えば、RAM)に蓄積され、その後、各種ROMやHDD、SSDの記憶装置に格納され、必要に応じてCPUによって読み出し、修正・書き込みが行なわれる。 Further, the program that operates in each device in the embodiment is a program that controls a CPU or the like (a program that causes a computer to function) so as to realize the functions of the above-described embodiment. Then, the information handled by these devices is temporarily stored in a temporary storage device (for example, RAM) at the time of processing, then stored in various ROMs, HDDs, and SSD storage devices, and read by the CPU as needed. , Correction / writing is performed.

また、市場に流通させる場合には、可搬型の記録媒体にプログラムを格納して流通させたり、インターネット等のネットワークを介して接続されたサーバコンピュータに転送したりすることができる。この場合、サーバコンピュータの記憶装置も本発明に含まれるのは勿論である。 Further, in the case of distribution to the market, the program can be stored and distributed in a portable recording medium, or transferred to a server computer connected via a network such as the Internet. In this case, it goes without saying that the storage device of the server computer is also included in the present invention.

1 画像表示システム
10 端末装置
100 制御部
110 表示部
120 タッチ検出部
130 画像処理部
140 通信部
150 記憶部
152 図形データ
154 付箋画像データ
20 表示装置
200 制御部
210 表示部
220 操作入力部
240 通信部
250 記憶部
252 図形データ
254 付箋画像データ
256 付箋データ
1 Image display system 10 Terminal device 100 Control unit 110 Display unit 120 Touch detection unit 130 Image processing unit 140 Communication unit 150 Storage unit 152 Graphic data 154 Sticky image data 20 Display device 200 Control unit 210 Display unit 220 Operation input unit 240 Communication unit 250 Storage unit 252 Graphic data 254 Sticky image data 256 Sticky data

Claims (12)

文字を含む図形を通常の入力モードと特定の入力モードとを切り替えて入力することが可能な図形入力手段と、
前記入力された一又は複数の図形が配置された画像を表示する画像表示手段と、
前記表示された画像の一部の領域を特定する領域特定手段と、
前記特定された領域に含まれている図形を取得する図形取得手段と、
前記取得された図形について、当該図形を表示する場合に用いられる図形の属性を判定する属性判定手段と、
前記取得された図形を、前記判定された図形の属性に基づいて表示する図形表示手段と、
を備え、
前記領域特定手段は、前記特定の入力モードで入力された図形が含まれるように、領域を特定し、
前記領域特定手段は、入力後、所定時間経過後に領域を特定することを特徴とする画像表示装置。
A graphic input means that can switch between a normal input mode and a specific input mode to input a figure containing characters, and
An image display means for displaying an image in which one or more input figures are arranged, and an image display means.
An area specifying means for specifying a part of the displayed image, and
A graphic acquisition means for acquiring a graphic included in the specified area, and
With respect to the acquired figure, an attribute determination means for determining the attribute of the figure used when displaying the figure, and an attribute determination means.
A graphic display means for displaying the acquired graphic based on the attribute of the determined graphic, and
Equipped with
The area specifying means specifies an area so as to include a figure input in the specific input mode.
The area specifying means is an image display device characterized in that the area is specified after a lapse of a predetermined time after input.
文字を含む図形が配置された画像を表示可能な他の画像表示装置と通信可能な画像表示装置であって、
図形を通常の入力モードと特定の入力モードとを切り替えて入力することが可能な図形入力手段と、
前記入力された一又は複数の図形が配置された画像を表示する画像表示手段と、
前記表示された画像の一部の領域を特定する領域特定手段と、
前記特定された領域に含まれている図形を取得する図形取得手段と、
前記取得された図形について、前記他の画像表示装置が図形を表示する場合に用いられる当該図形の属性を判定する属性判定手段と、
前記取得された図形と、当該図形の属性とを、他の画像表示装置に表示させるために送信する図形送信手段と、
を備え、
前記領域特定手段は、前記特定の入力モードで入力された図形が含まれるように、領域を特定し、
前記領域特定手段は、入力後、所定時間経過後に領域を特定することを特徴とする画像表示装置。
An image display device capable of communicating with another image display device capable of displaying an image in which a figure including characters is arranged.
A figure input means that allows you to switch between a normal input mode and a specific input mode to input a figure,
An image display means for displaying an image in which one or more input figures are arranged, and an image display means.
An area specifying means for specifying a part of the displayed image, and
A graphic acquisition means for acquiring a graphic included in the specified area, and
With respect to the acquired figure, an attribute determination means for determining the attribute of the figure used when the other image display device displays the figure, and
A graphic transmission means for transmitting the acquired graphic and the attributes of the graphic on another image display device, and
Equipped with
The area specifying means specifies an area so as to include a figure input in the specific input mode.
The area specifying means is an image display device characterized in that the area is specified after a lapse of a predetermined time after input.
前記領域の属性を認識する領域認識手段を更に備え、
前記属性判定手段は、前記領域の属性に基づいて、前記図形の属性を判定することを特徴とする請求項1又は2に記載の画像表示装置。
Further provided with an area recognition means for recognizing the attributes of the area,
The image display device according to claim 1 or 2, wherein the attribute determination means determines the attribute of the graphic based on the attribute of the area.
前記領域特定手段は、表示された画像の一部の領域を囲むことにより、領域を特定することを特徴とする請求項1又は2に記載の画像表示装置。 The image display device according to claim 1 or 2, wherein the area specifying means specifies an area by surrounding a part of the displayed image. 前記領域の属性は、少なくとも領域の形状の情報、囲領域を描画するときに右回り或いは左回りでストロークを描画した情報、ストローク描画時の指又はペンの本数の情報、他の操作とともに囲領域が入力されたか否かの情報の何れかの情報から設定されることを特徴とする請求項4に記載の画像表示装置。 The attributes of the area include at least information on the shape of the area, information on drawing a stroke clockwise or counterclockwise when drawing the surrounding area, information on the number of fingers or pens when drawing the stroke, and other operations. The image display device according to claim 4, wherein the image display device is set from any information of whether or not is input. 前記領域の属性は、少なくとも画像表示装置を操作している利用者の情報、画像表示装置の入力部から入力された情報、画像表示装置が保有している情報の何れかの情報から設定されることを特徴とする請求項4に記載の画像表示装置。 The attribute of the area is set from at least one of the information of the user who operates the image display device, the information input from the input unit of the image display device, and the information possessed by the image display device. The image display device according to claim 4, wherein the image display device is characterized by the above. 前記図形の属性は、少なくとも大きさ、色、形状、重要度、所有者に関する情報の何れかであることを特徴とする請求項1又は2に記載の画像表示装置。 The image display device according to claim 1 or 2, wherein the attribute of the graphic is at least one of size, color, shape, importance, and information about the owner. コンピュータに、
文字を含む図形を通常の入力モードと特定の入力モードとを切り替えて入力することが可能な図形入力機能と、
前記入力された一又は複数の図形が配置された画像を表示する画像表示機能と、
前記表示された画像の一部の領域を特定する領域特定機能と、
前記特定された領域に含まれている図形を取得する図形取得機能と、
前記取得された図形について、当該図形を表示する場合に用いられる図形の属性を判定する属性判定機能と、
前記取得された図形を、前記判定された図形の属性に基づいて表示する図形表示機能と、
を実現させるためのプログラムであって、
前記領域特定機能は、前記特定の入力モードで入力された図形が含まれるように、領域を特定し、
前記領域特定機能は、入力後、所定時間経過後に領域を特定することを特徴とするプログラム。
On the computer
A figure input function that allows you to switch between a normal input mode and a specific input mode to input a figure containing characters,
An image display function that displays an image in which one or more input figures are arranged, and
An area identification function that identifies a part of the displayed image, and
A figure acquisition function for acquiring a figure contained in the specified area, and
With respect to the acquired figure, an attribute determination function for determining the attribute of the figure used when displaying the figure, and an attribute determination function.
A graphic display function that displays the acquired graphic based on the attributes of the determined graphic, and
A program for realizing a
The area identification function identifies an area so as to include a figure input in the specific input mode.
The area specifying function is a program characterized in that an area is specified after a predetermined time has elapsed after inputting.
文字を含む図形が配置された画像を表示可能な他の画像表示装置と通信可能なコンピュータに、
図形を通常の入力モードと特定の入力モードとを切り替えて入力することが可能な図形入力機能と、
前記入力された一又は複数の図形が配置された画像を表示する画像表示機能と、
前記表示された画像の一部の領域を特定する領域特定機能と、
前記特定された領域に含まれている図形を取得する図形取得機能と、
前記取得された図形について、前記他の画像表示装置が図形を表示する場合に用いられる当該図形の属性を判定する属性判定機能と、
前記取得された図形と、当該図形の属性とを、他の画像表示装置に表示させるために送信する図形送信機能と、
を実現させるためのプログラムであって、
前記領域特定機能は、前記特定の入力モードで入力された図形が含まれるように、領域を特定し、
前記領域特定機能は、入力後、所定時間経過後に領域を特定することを特徴とするプログラム。
To a computer that can communicate with other image display devices that can display images with figures containing characters
A figure input function that allows you to switch between a normal input mode and a specific input mode to input a figure,
An image display function that displays an image in which one or more input figures are arranged, and
An area identification function that identifies a part of the displayed image, and
A figure acquisition function for acquiring a figure contained in the specified area, and
With respect to the acquired figure, an attribute determination function for determining the attribute of the figure used when the other image display device displays the figure, and
A graphic transmission function for transmitting the acquired graphic and the attributes of the graphic on another image display device, and
A program for realizing a
The area identification function identifies an area so as to include a figure input in the specific input mode.
The area specifying function is a program characterized in that an area is specified after a predetermined time has elapsed after inputting.
文字を含む図形が配置された画像を表示可能な第1の画像表示装置及び第2の画像表示装置を含む画像表示システムであって、
前記第1の画像表示装置は、
図形を通常の入力モードと特定の入力モードとを切り替えて入力することが可能な図形入力手段と、
前記入力された一又は複数の図形が配置された画像を表示する画像表示手段と、
前記表示された画像の一部の領域を特定する領域特定手段と、
前記特定された領域に含まれている図形を取得する図形取得手段と、
前記取得された図形について、前記第2の画像表示装置が図形を表示する場合に用いられる当該図形の属性を判定する属性判定手段と、
前記取得された図形と、当該図形の属性とを前記第2の画像表示装置に送信する図形送信手段と、
を備え、
前記領域特定手段は、前記特定の入力モードで入力された図形が含まれるように、領域を特定し、
前記領域特定手段は、入力後、所定時間経過後に領域を特定し、
前記第2の画像表示装置は、前記第1の画像表示装置から受信された図形を表示することを特徴とする画像表示システム。
An image display system including a first image display device and a second image display device capable of displaying an image in which a figure including characters is arranged.
The first image display device is
A figure input means that allows you to switch between a normal input mode and a specific input mode to input a figure,
An image display means for displaying an image in which one or more input figures are arranged, and an image display means.
An area specifying means for specifying a part of the displayed image, and
A graphic acquisition means for acquiring a graphic included in the specified area, and
With respect to the acquired figure, an attribute determination means for determining the attribute of the figure used when the second image display device displays the figure, and
And the figure in which the acquired, and the figure transmitting unit that transmits the attribute of the graphic on the second image display device,
Equipped with
The area specifying means specifies an area so as to include a figure input in the specific input mode.
The area specifying means specifies an area after a predetermined time has elapsed after inputting, and the area specifying means
The second image display device is an image display system characterized by displaying a figure received from the first image display device.
前記第2の画像表示装置は、前記第1の画像表示装置から受信された前記図形の属性に基づいて、前記図形を表示することを特徴とする請求項10に記載の画像表示システム。 The image display system according to claim 10 , wherein the second image display device displays the figure based on the attribute of the figure received from the first image display device. 前記図形送信手段は、併せて環境情報を送信し、
前記第2の画像表示装置は、
前記第1の画像表示装置から受信された図形を表示するときに、併せて環境情報を表示することを特徴とする請求項10に記載の画像表示システム。
The graphic transmission means also transmits environmental information,
The second image display device is
The image display system according to claim 10 , wherein when displaying a figure received from the first image display device, environmental information is also displayed.
JP2017137881A 2016-07-28 2017-07-14 Image display device, image display system and program Active JP6971671B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/661,159 US20180033175A1 (en) 2016-07-28 2017-07-27 Image display device and image display system
CN201710624499.7A CN107665087B (en) 2016-07-28 2017-07-27 Image display device, image display method, and image display system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016148786 2016-07-28
JP2016148786 2016-07-28

Publications (2)

Publication Number Publication Date
JP2018026117A JP2018026117A (en) 2018-02-15
JP6971671B2 true JP6971671B2 (en) 2021-11-24

Family

ID=61193965

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017137881A Active JP6971671B2 (en) 2016-07-28 2017-07-14 Image display device, image display system and program

Country Status (1)

Country Link
JP (1) JP6971671B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021056814A (en) * 2019-09-30 2021-04-08 シャープ株式会社 Display device
JP2022143788A (en) 2021-03-18 2022-10-03 株式会社リコー Display device, method for display, and program

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003323587A (en) * 2002-05-02 2003-11-14 Pfu Ltd Document generation method, device and program for vision-impaired person
JP2006018374A (en) * 2004-06-30 2006-01-19 Casio Comput Co Ltd Image processor with projector function, and program
US8643605B2 (en) * 2005-11-21 2014-02-04 Core Wireless Licensing S.A.R.L Gesture based document editor
JP6079069B2 (en) * 2012-09-05 2017-02-15 コニカミノルタ株式会社 Document display device, document display terminal, and document display program
JPWO2014147722A1 (en) * 2013-03-18 2017-02-16 株式会社東芝 Electronic device, method and program
US9652678B2 (en) * 2014-05-23 2017-05-16 Samsung Electronics Co., Ltd. Method and device for reproducing content
CN104391641A (en) * 2014-09-22 2015-03-04 贵阳朗玛信息技术股份有限公司 Information processing method and device
JP2016122460A (en) * 2016-02-12 2016-07-07 株式会社スクウェア・エニックス Communication program, communication terminal, and communication method

Also Published As

Publication number Publication date
JP2018026117A (en) 2018-02-15

Similar Documents

Publication Publication Date Title
US9448716B2 (en) Process and system for management of a graphical interface for the display of application software graphical components
JP5107453B1 (en) Information processing apparatus, operation screen display method, control program, and recording medium
JP6427559B6 (en) Permanent synchronization system for handwriting input
EP3745280A1 (en) Information search method and device and computer readable recording medium thereof
JP2019516189A (en) Touch screen track recognition method and apparatus
US10990748B2 (en) Electronic device and operation method for providing cover of note in electronic device
CN104067204A (en) Stylus computing environment
US20160321238A1 (en) Electronic device, method and storage medium
JP2009140390A (en) Instruction device and fingerprint authentication semiconductor circuit
JP5306528B1 (en) Electronic device and handwritten document processing method
JP5925957B2 (en) Electronic device and handwritten data processing method
US10990344B2 (en) Information processing apparatus, information processing system, and information processing method
US20160266734A1 (en) Conference support apparatus, conference support system, and computer-readable recording medium storing conference support program
CN105700727B (en) With the exchange method and information processing system of hyaline layer application layer below
JP2015158900A (en) Information processing device, information processing method and information processing program
CN107665087B (en) Image display device, image display method, and image display system
US20170169002A1 (en) Electronic apparatus and display control method
JP6971671B2 (en) Image display device, image display system and program
US10755461B2 (en) Display device, display method, and recording medium
US7483017B2 (en) Ink collection and rendering
JP2023184557A (en) Display device, display method, and program
JP2019067111A (en) Display control device and program
CN110537164A (en) The inking ability of enhancing for content creation applications
JP2015022524A (en) Terminal device and system
JP2021135911A (en) Display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211001

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211012

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211102

R150 Certificate of patent or registration of utility model

Ref document number: 6971671

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150