JP7608874B2 - 表示装置、表示方法、プログラム - Google Patents

表示装置、表示方法、プログラム Download PDF

Info

Publication number
JP7608874B2
JP7608874B2 JP2021033451A JP2021033451A JP7608874B2 JP 7608874 B2 JP7608874 B2 JP 7608874B2 JP 2021033451 A JP2021033451 A JP 2021033451A JP 2021033451 A JP2021033451 A JP 2021033451A JP 7608874 B2 JP7608874 B2 JP 7608874B2
Authority
JP
Japan
Prior art keywords
row
column
selection
display device
handwritten data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021033451A
Other languages
English (en)
Other versions
JP2022134370A (ja
Inventor
佳苗 五十嵐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2021033451A priority Critical patent/JP7608874B2/ja
Priority to US17/582,023 priority patent/US11816327B2/en
Publication of JP2022134370A publication Critical patent/JP2022134370A/ja
Application granted granted Critical
Publication of JP7608874B2 publication Critical patent/JP7608874B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/235Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments
    • G06V30/1423Image acquisition using hand-held instruments; Constructional details of the instruments the instrument generating sequences of position coordinates corresponding to handwriting
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04807Pen manipulated menu

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、表示装置、表示方法、及び、プログラムに関する。
手書き認識技術を利用し、手書きデータを文字に変換して、ディスプレーに表示する表示装置が知られている。比較的大型のタッチパネルを備えた表示装置は会議室や公共施設などに配置され、複数のユーザーにより電子黒板などとして利用される。
表示装置は手書きデータに基づいて、表の入力を受け付けることができる(例えば特許文献1参照。)。特許文献1には、操作メニューを操作することで表の行や列を削除する方法が開示されている。
しかしながら、従来の技術は、手書きデータで行や列を選択することができないという問題がある。例えば、特許文献1にはユーザーが手書きデータで表を作成する方法が開示されているが、行や列を手書きデータで選択する方法については開示されていない。
本発明は、上記課題に鑑み、手書きデータで行や列を選択することができる表示装置を提供することを目的とする。
上記課題に鑑み、本発明は、手書きで作成された表を表示する表示装置であって、入力手段により手書きデータの入力を受け付ける受付手段と、前記表の行又は列の選択を前記手書きデータにより受け付ける選択受付手段と、前記選択受付手段により前記表の行又は列が選択された場合、ユーザー操作に応じて、選択された前記表の行又は列に関する前記表の編集を行う制御手段と、を有し、前記制御手段は、前記選択受付手段が選択を受け付けた行又は列の付近に行又は列を追加するためのボタンを表示し、前記受付手段が前記ボタンの押下を受け付けた場合、前記選択受付手段が選択を受け付けた行又は列の前又は後に、行又は列を追加する
本発明は、手書きデータで行や列を選択することができる表示装置を提供できる。
表示装置が表の入力を受け付ける操作例を示す図である。 行の選択方法を説明する図である。 表示装置の概略斜視図の一例である。 表示装置のハードウェア構成図の一例である。 表示装置が有する機能をブロック状に分けて説明する機能ブロック図の一例である。 描画オブジェクト管理部が保持する描画オブジェクト情報を模式的に示す図の一例である。 行オブジェクト情報を模式的に示す図の一例である。 表が有する行の選択方法を説明する図の一例である。 表オブジェクトの任意の行の選択を受け付ける手順を示す一例のフローチャート図である。 ユーザーが矢印で行を選択する方法を説明する図の一例である。 表オブジェクトの任意の行の選択を受け付ける手順を示す一例のフローチャート図である。 ボタンが表示された表の一例を示す図である。 行の追加前と追加後の一例の表オブジェクト情報を示す図である。 表示装置が行の追加を受け付ける処理を説明するフローチャート図の一例である。 手書きデータで表に行を追加する方法を説明する図の一例である。 表示装置が行の追加を受け付ける処理を説明するフローチャート図の一例である。 行の追加前と追加後の一例の描画オブジェクト情報を示す図である。 挿入記号の手書きデータで行を追加する方法を説明する図の一例である。 表示装置が行の追加を受け付ける処理を説明するフローチャート図の一例である。 行の追加前と追加後の一例の描画オブジェクト情報を示す図である。 行の削除方法を説明する図の一例である。 表示装置が行の削除を受け付ける処理を説明するフローチャート図の一例である。 削除前と削除後の表オブジェクト情報を説明する図の一例である。 手書きデータで行を削除する方法を説明する図の一例である。 表示装置が行の削除を受け付ける処理を説明するフローチャート図の一例である。 削除前と削除後の一例の表オブジェクト情報を説明する図である。 手書きデータで行を削除する方法を説明する図の一例である。 表示装置が行の削除を受け付ける処理を説明するフローチャート図の一例である。 削除前と削除後の一例の描画オブジェクト情報を説明する図である。 行のコピー又は移動方法を説明する図の一例である。 表示装置が行の移動を受け付ける手順を示すフローチャート図の一例である。 移動前と移動後の一例の描画オブジェクト情報を示す図である。 手書きデータで行を移動する方法を説明する図の一例である。 表示装置が行の移動を受け付ける処理を説明するフローチャート図の一例である。 移動前と移動後の一例の描画オブジェクト情報を示す図である。 手書きデータで行を移動する方法を説明する図の一例である。 表示装置が行の移動を受け付ける処理を説明するフローチャート図の一例である。 行の移動前と移動後の一例の描画オブジェクト情報を示す図である。 表の分割方法を説明する図の一例である。 表示装置が表の分割を受け付け、表を分割する手順を示すフローチャート図である。 表の分割前と分割後の描画オブジェクト情報を説明する図の一例である。 表示装置の他の構成例を示す図である。 表示装置の他の構成例を示す図である。 表示装置の他の構成例を示す図である。 表示装置の他の構成例を示す図である。
以下、本発明を実施するための形態の一例として表示装置2と、表示装置2が行う表示方法について図面を参照しながら説明する。
<表の編集方法の比較例>
本実施形態の表の編集方法を説明するに当たり、表の編集方法の比較例を説明する。なお、比較例は従来技術とは限らないことに注意されたい。
ユーザーが電子ペンなどで表を編集する場合、何らかのメニューを操作する方法が検討される。この場合、例えば、以下のような操作が必要となる。
・行の挿入の場合、ユーザーは挿入したい行を選択し、長押しで編集メニューを表示させる。ユーザーは編集メニューから「挿入」を選択する。
・行の削除の場合、ユーザーは削除したい行を選択し、長押しで編集メニューを表示させる。ユーザーは編集メニューから「削除」を選択する。
・行の移動の場合、ユーザーは移動したい行を選択し、長押しで編集メニューを表示させる。ユーザーは編集メニューから「切り取り」を選択する。次に、ユーザーは移動先の行を選択し、長押しで編集メニューを表示させる。ユーザーは編集メニューから「切り取った行の挿入」を選択する。
このように、編集のためにユーザーがメニューを繰り返し選択するので、メニューの操作が煩雑になり、操作性が低下するおそれがある。
<表の作成方法>
続いて、本実施形態の表示装置2における表の選択方法を説明する。まず、図1を参照して、表の作成手順を説明する。図1は、表示装置2が表の入力を受け付ける操作例を示す。
(1) ユーザーは表を入力するためのアイコン301を押下する(図1(a))。
(2) ユーザーは、フリーハンドで表302を手書きする。すなわち、ユーザーは手書きデータで表を作成する。
(3) 表示装置2は手書きデータを認識し、表303に変換する(図1(b))。すなわち、表示装置2は、縦と横、複数の平行な直線で形成される表303を表示する。
このような表303に対し、本実施形態の表示装置2は、ユーザーが手書きデータで表を編集することができる。以下は、編集操作の流れである。
(1) ユーザーが手書きデータで表の一部を選択する。
(2) ユーザーが表の任意の行(列)を選択すると、ユーザーは簡単な操作で該行(列)の上(左)又は下(右)に行(列)を追加できる。
(3) 同様に、表の任意の行(列)を選択すると、ユーザーは簡単な操作で該行(列)を削除できる。
(4) 同様に、表の任意のX行(列)を選択すると、ユーザーは簡単な操作で任意のY行(列)目に移動できる。
(5) 同様に、表の任意のX行(列)を選択すると、ユーザーは簡単な操作で表の外の任意の位置にX行(列)を抜き出して表示できる。
図2は、行の選択方法を説明する図である。一例として、図2(a)に示すように、ユーザーは任意の行を手書きデータの枠304で囲むことで選択できる。表示装置2は、囲まれた枠304内の領域に行オブジェクトがあるか否かを判断する。領域内のオブジェクトが行であった場合、図2(b)に示すように、表示装置2は大阪の行を選択状態にする。
選択状態は、表示装置2が選択された行を強調して、ユーザーに認識させる状態である。また、表示装置2は選択された行に対する操作を待ち受ける状態となる。後述するように、ユーザーはメニューを経由しないか最小限のメニュー操作で、電子ペンなどの入力手段を用いた手書きデータの入力で、表を編集できる。例えば、ユーザーは選択状態の行の前後に行を追加したり、選択状態の行を削除したり、移動したりすることができる。列についても同様である。なお、ユーザーが行又は列を選択状態にすることは必須でない。
このように、本実施形態の表示装置2は、選択された行又は列について、ユーザー操作に応じて、行や列の追加、移動、又は、削除などの編集を手書きデータで実行することができるので、操作性を向上させることができる。
<用語について>
入力手段とはタッチパネルに座標を指定して手書きが可能な手段であればよい。例えば、ペン、人の指や手、棒状部材などがある。
ユーザーがディスプレーに入力手段を押しつけてから連続的に移動させた後、ディスプレーから離すという一連の操作をストロークという。ストロークデータとは、入力手段により入力される座標の軌跡に基づいてディスプレーに表示される情報である。ストロークデータは適宜、補間されてよい。手書きデータとは、1つ以上のストロークデータを有するデータである。手書き入力とは、ユーザーによって、手書きデータが入力されることを示している。
ストロークデータに基づいてディスプレーに表示される表示物をオブジェクトという。オブジェクトとは対象という意味であるが、本実施形態では表示対象などの意味である。
手書きデータが文字認識して変換された文字列には、テキストデータの他、「済」などの決まった文字やマークとして表示されるスタンプ、円や星などの図形、直線等、ユーザーの操作に基づいて表示されたデータも含まれてよい。
文字列とは手書きデータから文字認識により変換された1つ以上の文字コード(フォント)である。文字列は、コンピュータで扱われる1つ以上の文字でよい。文字には、数字、アルファベット、及び、記号等が含まれる。文字列はテキストデータとも言われる。
表示部品とは、画面を形成する色や形などの表示である。部品として表示装置2から分解できるものではなく、人間が視覚的に他と区別して認識できればよい。例えば、操作のためのメニューは表示部品である。
表とは情報を配列により書き表したものをいう。表は、テーブルとも呼ばれる。表は、横方向と縦方向のセルを有する。横方向に並んでいるセルを「行」と呼び、縦方向に並んでいるセルを「列」と呼ぶ。
編集とは、著作物の修正、追加、又は、削除などをいう。本実施形態では、主に表に関する操作をいう。例えば、行(列)の追加、削除、移動、コピー、表の分割などがある。
<構成例>
図3は、表示装置2の概略斜視図の一例を示す。表示装置2をユーザー(利用者)が利用している。本実施形態の表示装置2は、ユーザーが手又は電子ペン2500などの入力手段でディスプレー上に手書きを行うことができる。
図3の表示装置2は横置きされているが、縦置きすることも可能である。ユーザーは表示装置2をディスプレーの中心を軸に回転させて、横置きと縦置きを切り替えることができる。
<ハードウェア構成例>
図4は、表示装置2のハードウェア構成の一例を示す図である。本実施形態の表示装置2は、CPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203、SSD(Solid State Drive)204、ネットワークコントローラ205、及び、外部機器接続I/F206(Interface)を備えており、複数の利用者により情報を共有するための共有端末である。
これらのうち、CPU201は、表示装置2全体の動作を制御する。ROM202は、CPU201やIPL(Initial Program Loader)等のCPU201の駆動に用いられるプログラムを記憶する。RAM203は、CPU201のワークエリアとして使用される。
SSD204は、表示装置2用のプログラム等の各種データを記憶する。このプログラムは汎用的なOS(Windows(登録商標)、Mac OS(登録商標)、Android(登録商標)、iOS(登録商標)等)を搭載した情報処理装置で動作するアプリケーションプログラムでもよい。この場合、表示装置2は、普段は汎用的な情報処理端末として利用されるが、ユーザーがインストールされアプリケーションプログラムを実行すると、表示装置としての専用機と同様、ユーザーが手書き等することができる。
ネットワークコントローラ205は、ネットワークとの通信を制御する。外部機器接続I/F206は、USB(Universal Serial Bus)メモリ2600、外付け機器(カメラ2900、スピーカ2800、マイク2700)との通信を制御する。
また、表示装置2は、キャプチャデバイス211、GPU212、ディスプレイコントローラ213、接触センサ214、センサコントローラ215、電子ペンコントローラ216、近距離通信部219、及び近距離通信部219のアンテナ219aを備えている。
これらのうち、キャプチャデバイス211は、PC10のディスプレーに対して映像情報を静止画又は動画として表示させる。GPU(Graphics Processing Unit)212は、グラフィクスを専門に扱う半導体チップである。ディスプレイコントローラ213は、GPU212からの出力画像をディスプレー220等へ出力するために画面表示の制御及び管理を行う。
接触センサ214は、ディスプレー220上に電子ペン2500やユーザーの手H等が接触したことを検知する。電子ペン2500と手Hを区別しない場合、入力手段291という。
センサコントローラ215は、接触センサ214の処理を制御する。接触センサ214は、赤外線遮断方式による座標の入力及び座標の検出を行う。この座標の入力及び座標の検出する方法は、ディスプレー220の上側両端部に設置された2つ受発光装置が、ディスプレー220に平行して複数の赤外線を放射し、ディスプレー220の周囲に設けられた反射部材によって反射されて、受光素子が放射した光の光路と同一の光路上を戻って来る光を受光する方法であっても良い。
接触センサ214は、物体によって遮断された2つの受発光装置が放射した赤外線のIDをセンサコントローラ215に出力し、センサコントローラ215が、物体の接触位置である座標位置を特定する。電子ペンコントローラ216は、電子ペン2500と通信することで、ディスプレー220へのペン先のタッチやペン尻のタッチの有無を判断する。近距離通信部219は、NFC、Bluetooth(登録商標)等の通信回路である。
更に、表示装置2は、バスライン210を備えている。バスライン210は、CPU201等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。
なお、接触センサ214は、赤外線遮断方式に限らず、静電容量の変化を検知することにより接触位置を特定する静電容量方式のタッチパネル、対向する2つの抵抗膜の電圧変化によって接触位置を特定する抵抗膜方式のタッチパネル、接触物体が表示部に接触することによって生じる電磁誘導を検知して接触位置を特定する電磁誘導方式のタッチパネルなどの種々の検出手段を用いても良い。また、電子ペンコントローラ216が、電子ペン2500のペン先及びペン尻だけでなく、電子ペン2500のユーザーが握る部分や、その他の電子ペンの部分のタッチの有無を判断するようにしても良い。
<機能について>
次に、図5を用いて表示装置2の機能について説明する。図5は、表示装置2が有する機能をブロック状に分けて説明する機能ブロック図の一例である。表示装置2は、接触位置検出部40、描画データ生成部41、描画オブジェクト管理部42、表オブジェクト管理部43、オブジェクト選択部44、表示制御部45、会議データ記憶部46、ネットワーク通信部47、記号認識部48、及び プレビュー画像生成部49を有している。表示装置2が有する各機能は、図4に示されている各構成要素のいずれかが、SSD204からRAM203上に展開されたプログラムに従ったCPU201からの命令によって動作することで実現される機能又は手段である。
接触位置検出部40は、入力手段291の先端がディスプレーに接触したため接触センサ214が検出した座標を検出する。描画データ生成部41は入力手段291の先端が接触した座標を接触位置検出部40から取得する。描画データ生成部41はこの座標点列を補間することで接続して、ストロークデータを生成する。また、描画データ生成部41は、手書きデータに基づいて記号認識部48が認識した円や矩形等の図形を生成する。
描画オブジェクト管理部42は、描画データ生成部41が生成した手書きデータの領域、円や矩形等の図形の領域、及び、表など領域を描画オブジェクトとして、描画オブジェクトIDを付与するなどにより、これらの領域を管理する。また、描画オブジェクト管理部42は、各描画オブジェクトの表示位置(座標)も管理する。表オブジェクトは、描画オブジェクト管理部42により描画オブジェクトIDや表示位置を管理されるが、表オブジェクト管理部43は表内に記載される行や列のオブジェクトを管理する。表オブジェクト管理部43は表内の手書きデータや文字列を管理したり、行や列の順番を入れ替えたり等、表に特有の処理を行う。
オブジェクト選択部44は手書きデータで形成された領域、又は、矢印など所定の形状の手書きデータで選択される行又は列の選択を受け付ける。オブジェクト選択部44はセルの選択を受け付けてもよい。オブジェクト選択部44は、オブジェクトを選択状態にする。
表示制御部45は、手書きデータ、文字列、表、及び、操作メニュー等をディスプレーに表示する。ネットワーク通信部47はLANやインターネット等のネットワークに接続して、他の機器とネットワークを介したデータの送受信を行う。
会議データ記憶部46は会議で使用された資料(ファイル)、手書きデータ、画像データ、及び、文字列等をハードディスク等の記憶装置に記憶させる。
プレビュー画像生成部49は、行の移動結果や表の分割結果などを、表オブジェクト管理部43が実際に移動又は分割する前に、プレビューデータ画像として表示する。
<描画オブジェクト情報、行オブジェクト情報>
図6は描画オブジェクト管理部42が保持する描画オブジェクト情報を模式的に示す。描画オブジェクト情報は、表示装置2が表示する描画オブジェクトを管理する情報である。
・描画オブジェクトIDは描画オブジェクトを識別する識別情報である。描画オブジェクトは画面に表示されている各種の表示物の全てをいう。図6の描画オブジェクトID=001の描画オブジェクトは、1つの表の各行である。図6の最下行の描画オブジェクトIDが002になっているのは、表に手描きされた囲み線や矢印の手書きデータを表している。
・行オブジェクトIDは描画オブジェクトが表であり、その中の行オブジェクトに設定されるものであり、行オブジェクトを識別する識別情報である。行オブジェクトは1つの表の中の1行である。列オブジェクトについても同様に列オブジェクトIDが付与される。
・起点座標は、表示装置2の画面の所定の原点を基準として描画オブジェクトの起点の位置を示す。描画オブジェクトの起点は例えば描画オブジェクトの外接矩形の左上の角である。座標は例えば、ディスプレーの画素単位で表される。
・終点座標は、表示装置2の画面の所定の原点を基準として描画オブジェクトの終点の位置を示す。描画オブジェクトの終点は例えば描画オブジェクトの外接矩形の右下の角である。
・オブジェクトのタイプは描画オブジェクトの種類である。例えば、表(行又は列)、手書き、文字列、図形、画像、等がある。表(行)は行オブジェクトを示す。手書きはストロークデータ(座標点列)である。文字は手書きデータから変換された文字列(文字コード)である。文字列をテキストデータという場合もある。図形は、三角や四角など手書きデータから変換された幾何学的な形状である。画像は、PCやインターネットなどから取り込まれたJpeg、Png、Tiffなどの画像データである。
図7は、行オブジェクト情報を模式的に示す。行オブジェクト情報は描画オブジェクトから行オブジェクトのみを取り出した情報である。
・行オブジェクトIDは表の中の行(又は列)を識別する識別情報である。
・起点座標は1行の起点の座標である。
・終点座標は1行の終点の座標である。
<表の行又は列の選択>
図8は、表が有する行の選択方法を説明する図である。まず、図8を参照して、描画オブジェクト管理部42が管理する行オブジェクトの表示位置について説明する。ディスプレーの表示画素の位置は、表示領域の左上の角にある画素位置を原点として、右方向をX軸の正の方向、下方向をY軸の正の方向とした表示座標で表現する。
すなわち、
座標=(原点位置の画素からのX軸方向の画素数,原点位置の画素からのY軸方向の画素数)
である。
また、描画オブジェクト管理部42は描画オブジェクトの領域を描画オブジェクトに外接する矩形で管理し、この矩形領域の左上の角にある画素位置を起点座標、矩形領域の右下の角にある画素位置を終点座標とする。行オブジェクトの場合、行の外接矩形の左上の角を起点座標(Sxk,Syk)、外接矩形の右下の角を終点座標(Exk,Eyk)とする。ここでkは1行目から順番に付与される行番号である。例えば、選択された行をm行とすれば、起点座標が(Sxm,Sym)、終点座標が(Exm,Eym)である。
タッチパネルの接触座標の間隔はディスプレーの表示座標の間隔と同じであり、両者の座標は一致しているものとする。
図8(a)に示すように、表示装置2が表を表示している。ユーザーがオブジェクト選択アイコンを選択すると、接触位置検出部40が検出する座標により、描画オブジェクト管理部42がオブジェクト選択モードであると判断する。オブジェクト選択アイコンの押下は必ずしも必要ない。
ユーザーは手書きで支店の項目が大阪の行を枠304で囲む。オブジェクト選択部44は接触位置検出部40が検出した枠304の座標から最下端311、最左端312、最上端313、最右端314の座標を算出し、手書きで描いた枠304が大阪の行を囲んだと判断する(詳細はフローチャート図で説明する)。そして、オブジェクト選択部44は大阪の行を選択状態にする。なお、図8(a)では1行のみが選択されているが、ユーザーは複数行を選択することができる。
選択の詳細を図9のフローチャートで説明する。図9は、表オブジェクトの任意の行の選択を受け付ける手順を示すフローチャート図である。図8(a)の札幌から順に行オブジェクトIDを1、2、…nとする。ユーザーが手書きデータで囲んだm行目の行の外接矩形における左上の角の座標を起点座標(Sxm, Sym)とし、右下の座標を終点座標(Exm, Eym)とする。
まず、図9の処理の概略は以下のとおりである。ユーザーがオブジェクト選択モードで行を囲むと、オブジェクト選択部44は接触位置検出部40が検出した座標から、ストロークデータで囲んだ領域がk行目よりd小さい領域を包括するか判断する。dはストロークデータが1つの行を完全に囲んでいない場合でも行の選択を可能にするためのマージンである。ストロークデータで囲まれた領域がk行目よりd小さい領域を包括するとオブジェクト選択部44が判断した場合、その行を選択状態にする。オブジェクト選択部44は、この処理をk=1からn行目まで繰り返す。
図8(a)では大阪の行が選択されているので、図8(b)では大阪の行が選択状態である。オブジェクト選択部44は大阪の行の色を変えたり、線305で囲んだりすることで強調する。
図9について説明する。オブジェクト選択部44は変数kに1を設定する(S1)。kは行番号を表す。オブジェクト選択部44は終了条件(k≦nがNo)を満たすか否かを判断する(S2)。nは表が有する行数である。終了条件により、最後の行まで手書きデータで囲まれたか否かの判断が終了したことが判断される。
終了条件を満たさない場合、オブジェクト選択部44は最上端313の座標がSyk+dより大きいか否かを判断する(S3)。
同様に、オブジェクト選択部44は最下端311の座標がEyk-dより小さいか否かを判断する(S4)。
オブジェクト選択部44は最右端314の座標がExk-dより大きいか否かを判断する(S5)。
オブジェクト選択部44は最左端312の座標がSxk+dより小さいか否かを判断する(S6)。
ステップS3~S6が全てYesの場合(S7のYes)、オブジェクト選択部44はk行目を選択状態にする(S8)。
ステップS7において、ステップS3~S6のうち1つでもNoの場合、オブジェクト選択部44はkを1つ大きくする(S9)。すなわち、オブジェクト選択部44は、次の行が選択されたかどうかを判断する。
なお、図9のように全ての行について選択されたかどうかをオブジェクト選択部44が判断するのでなく、ストロークデータの外接矩形が重なっている行のみを判断してもよい。
このように、ユーザーは行をストロークデータで囲むという簡単な方法で行を選択できる。
<行の選択方法の別の例>
行を選択する方法としては、ユーザーが行をストロークデータで囲む方法以外にも、行の隣に矢印を書く方法でもよい。
図10は、ユーザーが矢印で行を選択する方法を説明する図である。図10(a)に示すようにユーザーは支店の項目が大阪の行の隣に、大阪に向かって矢印320を手書きする。矢印320の外接矩形における左上の角の座標を起点座標(Sxp, Syp)とし、右下の角の座標を終点座標(Exp, Eyp)とする。
また、枠から距離Lの範囲が、ユーザーが行を選択する記号を手書きする範囲(記号の検出範囲)として予め定められている。ユーザーが選択された行とは関係なく手書きしたい場合があるためである。また、図10(a)では表の左隣に矢印が手書きされているが、表の右隣から距離Lの範囲も記号の検出範囲でよい。
オブジェクト選択部44は描画オブジェクト情報に基づいて、手書きデータが矢印であり、かつ、大阪の行の隣であると判断すると、大阪の行を選択状態にする(図10(b))。
図11は、表オブジェクトの任意の行の選択を受け付ける手順を示すフローチャート図である。
ユーザーが大阪の行隣に矢印320を手書きすると、オブジェクト選択部44はオブジェクト情報記憶部から描画オブジェクトの座標と大きさを取得し、表から距離L以内に手書きデータがあるか否かを判断する(S11)。図6を例にすると、描画オブジェクトとして描画オブジェクトID=002の矢印が、表だけの描画オブジェクトに追加された状態となる。
次に、表オブジェクト管理部43は手書き線が矢印320かどうかの判断を行う(S12)。すなわち、表オブジェクト管理部43は、選択された行の付近の手書きデータが予め定められている記号に認識されたかどうかを判断する。
矢印320の場合、オブジェクト選択部44は変数kに1を設定する(S13)。kは行番号を表す。なお、手書きデータの認識は記号認識部48が行う。矢印は一例であって、チェックマークなど各種の記号が選択用の記号として設定されていてよい。
オブジェクト選択部44は終了条件(k≦nでNo)を満たすか否かを判断する(S14)。nは表が有する行数である。
終了条件を満たさない場合、オブジェクト選択部44は、矢印の中心y座標(Syp+Eyp)/2が、選択されている行の高さに相当するSymとEymの間にあるか否かを判断する(S15)。
ステップS15の判断がYesである場合、オブジェクト選択部44はk行目を選択状態にする(S17)。
ステップS15の判断がNoである場合、オブジェクト選択部44はkを1つ大きくし、ステップS14に戻る(S16)。
このように、ユーザーは行の横に記号を手書きすることで、任意の行を選択状態にできる。
なお、図11のように全ての行について選択されたかどうかをオブジェクト選択部44が判断するのでなく、ストロークデータのY座標が重なっている行のみを判断してもよい。
<行の追加方法 その1>
ユーザーが行を選択状態にすると、大阪の行の前後に、表示制御部45が行を追加するためのボタンや削除するためのボタンを表示する。
図12(a)は、ボタン321~323が表示された表の一例を示す。選択された大阪の行の右側に3つのボタン321~323が表示される。ボタン321~323の位置は図示する位置に限られない。ボタン321~323は選択されている行の付近にあればよい。
ボタン321は選択されている行の上にユーザーが行を追加するためのボタンである。ボタン323は選択されている行の下にユーザーが行を追加するためのボタンである。ボタン322は選択されている行をユーザーが削除するためのボタンである。
ユーザーがボタン321を押下すると、表オブジェクト管理部43は大阪の行の上に行を追加して表示する(図12(b)))。表オブジェクト管理部43は追加された行に新しい行オブジェクトIDを、1行目から連番で設定する。したがって、追加された行がm行目となり、選択された行以下の行オブジェクトIDは1つずつ増える。
図13は、行の追加前と追加後の表オブジェクト情報を示す。図13(a)は行の追加前の表オブジェクト情報であり、図13(b)は行の追加後の表オブジェクト情報である。m行目が追加された行に相当する。行が追加されたため、行数がnからn+1に1つ増えている。
図14は、表示装置2が行の追加を受け付ける処理を説明するフローチャート図の一例である。
まず、図9,図11で説明したように、オブジェクト選択部44がm行目を選択状態にする(S21)。
これにより、表示制御部45がm行目に行を追加するボタン321とm行目の後(m+1行目)に行を追加するボタン323を表示する(S22)。ボタン322も表示されるが、詳細は後述する。
表オブジェクト管理部43は、接触位置検出部40が検出する入力手段291の接触位置に応じて、行を追加するボタン321が押下されたと判断する(S23)。
表オブジェクト管理部43は表の最後に空白の1行を追加する(S24)。
また、押下されたボタン321がm行目に行を追加するためのボタン321であった場合(S25のYes)、表オブジェクト管理部43は最終行を設定するため、変数kにnを設定する(S26)。kは行番号を表す。
押下されたボタン323がm+1行目に行を追加するためのボタン323であった場合(S25のNo)、表オブジェクト管理部43はmを1つ大きくする(S27)。これは、1行早くコピー処理を終了するためである。
表オブジェクト管理部43は終了条件(m≦kでNo)を満たすか否かを判断する(S28)。この終了条件は、コピー処理の対象行(変数k)が選択行mより大きいかどうかを判断している。
終了条件を満たさない場合、表オブジェクト管理部43は、k行目の描画オブジェクトをk+1行目にコピーする(S29)。k行目の描画オブジェクトは消去される。
そして、表オブジェクト管理部43はkを1つ小さくして(S30)、ステップS28から処理を繰り返す。
したがって、k=n, n-1, n-2, …, m(又はm+1)になるまで、1つ上の行の描画オブジェクトが1つ下の行にコピーされる。
このように、ユーザーは行を手書きデータで囲んでボタン321,323を押下することで行を追加できる。
<行の追加方法 その2>
次に、図15を参照して、行の追加方法(その2)を説明する。図15は手書きデータで表に行を追加する方法を説明する図である。
図15(a)に示すように、大阪の行が選択状態であるとする。次に、ユーザーが所定のマーク(ここでは+マーク325)を大阪の行の高さの半分より上に手書きする(図15(b))。+マーク325の外接矩形における左上の角の座標を(Sxp,Syp)とし、右下の角の座標を(Exp,Eyp)とする。
表オブジェクト管理部43は手書きデータが+マーク325であるか否かを判断する。+マーク325の場合、表オブジェクト管理部43は、書き込まれた位置が選択されている大阪の行の半分より上か又は下か判断する。大阪の行の半分より上に書き込まれたと判断された場合、表オブジェクト管理部43は大阪の行の上に行を追加して表示する(図15(c))。大阪の行の半分より下に書き込まれたと判断された場合、表オブジェクト管理部43は大阪の行の下に行を追加して表示する。
図16は、表示装置2が行の追加を受け付ける処理を説明するフローチャート図の一例である。図16の説明では主に図14との相違を説明する。図16ではボタン321、323でなく+マーク325の手書きデータで行が追加される。
オブジェクト選択部44がm行目を選択状態にする(S31)。
ユーザーが大阪の行と名古屋の行の境界に+マーク325を手書きすると、オブジェクト選択部44はオブジェクト情報記憶部から描画オブジェクトの座標と大きさを取得し、表から距離L以内に手書きデータがあるかを判断する(S32)。
次に、表オブジェクト管理部43は、記号認識部48が+マーク325を認識したかどうかの判断を行う(S33)。+マーク325は一例であって、他の記号が行の追加用に設定されていてよい。
+マーク325が手書きされると、表オブジェクト管理部43は表の最後に空白の1行を追加する(S34)。
次に、表オブジェクト管理部43は、+マークの中心y座標(Syp+Eyp)/2がm行目の高さの中心(Sym+Eym)/2より大きいか判断する(S35)。表オブジェクト管理部43は、単に大きいか小さいかだけでなく、選択行の高さ方向に対し上限と下限を設けて+マーク325がある場所を判断してよい。
ステップS35の判断がNoの場合、表オブジェクト管理部43はmを1つ大きくする(S36)。
ステップS37~S40の処理は図14のステップS27~S30と同様でよい。すなわち、ステップS35の判断がYesの場合、選択された行の上に新しい行が追加されるように、表オブジェクト管理部43は、k行目のテキストをk+1行目へコピーすることをk=nからk=mになるまで繰り返す。
ステップS35の判断がNoの場合、選択された行の下に新しい行が追加されるように、k行目のテキストをk+1行目へコピーすることをk=nからk=m+1になるまで繰り返す。
このように、ユーザーは行を手書きデータで囲んで、更に、+マークの手書きデータで行を追加できる。
図17は、行の追加前と追加後の描画オブジェクト情報を示す。図17(a)は行の追加前の描画オブジェクト情報であり、図17(b)は行の追加後の描画オブジェクト情報である。図17(a)のm行目が選択された行である。+マーク325の中心y座標がm行目の高さの中心より大きい場合、m行目が追加される。また、図17(a)では描画オブジェクトID=002に+マーク325の手書きデータが登録されている。
図17(b)では、行が追加されたため、行数がnからn+1に1つ増えている。また、描画オブジェクトID=002の+マーク325は消去されるので、描画オブジェクト情報からも消去される。
<行の追加方法 その3>
次に、図18を参照して、行の追加方法(その3)を説明する。図18は、挿入記号の手書きデータで行を追加する方法を説明する図である。
図18(a)に示すように、大阪の行が選択状態であるとする。次に、ユーザーが所定のマーク(ここでは<マーク326)を名古屋と大阪の間に手書きする。表オブジェクト管理部43は手書きデータが<マーク326であると判断する。<マーク326の場合、表オブジェクト管理部43は、<マーク326の先端の位置がどの行間であるか判断する。名古屋と大阪の間であると判断された場合、表オブジェクト管理部43は大阪の上に行を追加して表示する(図18(b))。
図19は、表示装置2が行の追加を受け付ける処理を説明するフローチャート図の一例である。図19の説明では主に図16との相違を説明する。図19では+マーク325でなく<マーク326の手書きデータで行が追加される。まず、ステップS41,S42は図16のステップS31,32と同様でよい。
ステップS43で、表オブジェクト管理部43は、記号認識部48が<マーク326を検出したか否かを判断する(S43)。
ステップS44は図16のステップS34と同様でよい。
そして、表オブジェクト管理部43は、<マーク326の先端が選択された行の上端から±h(Sym±hの範囲)内にあるか判断する(S45)。hはマージンである。
ステップS45の判断がNoの場合、表オブジェクト管理部43は、<マーク326の先端が選択された行の下端から±h(Eym±hの範囲)内にあるか判断する(S46)。hはマージンである。
以降の処理のステップS47~S51は図16のステップS36~S40と同様でよい。すなわち、ステップS45の判断がYesの場合、選択された行の上に新しい行が追加されるように、表オブジェクト管理部43は、k行目のテキストをk+1行目へコピーすることをk=nからk=mになるまで繰り返す。
ステップS46の判断がYesの場合、選択された行の下に新しい行が追加されるように、k行目のテキストをk+1行目へコピーすることをk=nからk=m+1になるまで繰り返す。
このように、ユーザーは行を手書きデータで囲んで、更に、<マークの手書きデータで行を追加できる。
図20は、行の追加前と追加後の描画オブジェクト情報を示す。図20の説明では主に図17との相違を説明する。図20は図17と形式は同じであるが、図20(a)では描画オブジェクトID=002に<マーク326の手書きデータが登録されている。図20(b)については図17(b)と同じでよい。
<行の削除方法 その1>
続いて、図21等を参照して行の削除方法について説明する。図21は、行の削除方法を説明する図である。行が選択状態となることでボタン321~323が表示されるまでは、図12と同じでよい。
図21(a)に示すように、大阪の行が選択状態になると、表示制御部45が行を削除するためのボタン322を選択された行の右隣に表示する。ユーザーが大阪の行を削除するためのボタン322を押下すると、表オブジェクト管理部43は大阪の行を削除し、名古屋の行の下に福岡の行を続けて表示する(図21(b))。
図22は、表示装置2が行の削除を受け付ける処理を説明するフローチャート図の一例である。
まず、オブジェクト選択部44がm行目を選択状態にする(S61)。
これにより、表示制御部45がm行目を削除するボタン322を表示する(S62)。
表オブジェクト管理部43は、接触位置検出部40が検出する入力手段291の接触位置に応じて、行を削除するボタン322が押下されたか否かを判断する(S63)。
削除するボタン322が押下された場合、表オブジェクト管理部43は変数kにmを設定する(S64)。これは、m+1行目以降の描画オブジェクトを1行ずつ繰り上げるためである(列の操作の場合は、m+1列目以降の描画オブジェクトが1列ずつ繰り上がる)。
表オブジェクト管理部43は終了条件(k≦nでNo)を満たすか否かを判断する(S65)。
終了条件を満たさない場合、表オブジェクト管理部43は、k+1行目のテキストをk行目にコピーする(S66)。
そして、表オブジェクト管理部43はkを1つ大きくして(S67)、ステップS65から処理を繰り返す。したがって、表オブジェクト管理部43はk+1行目のテキストをk行目にコピーすることをk=mからk=nまで繰り返す。
終了条件を満たす場合、表オブジェクト管理部43は、n行目を削除する(S68)。すなわち、表オブジェクト管理部43は最下行を削除する。
このように、ユーザーは行を手書きデータで囲んでボタンを押下することで行を削除できる。
図23は、削除前と削除後の表オブジェクト情報を説明する図である。図23(a)が削除前の表オブジェクト情報を、図23(b)が削除後の表オブジェクト情報を示す。n行あった表オブジェクト情報がn-1行になっている。図23(a)のm行目が削除されたので、図23(b)のm行目の描画オブジェクトは図23(a)のm+1行目の行の内容に置き換わっている。
<行の削除方法 その2>
次に、図24を参照して、行の削除方法(その2)を説明する。図24は、手書きデータで行を削除する方法を説明する図である。
図24(a)に示すように、大阪の行が選択状態であるとする。次に、ユーザーが所定のマーク(ここでは×マーク327)を大阪の行の隣に手書きする。表オブジェクト管理部43は手書きデータが×マーク327であると判断する。×マーク327の場合、表オブジェクト管理部43は、書き込まれた位置がどの行であるかを判断する。大阪の行の隣と判断された場合、表オブジェクト管理部43は大阪の行を削除して、名古屋の行に続けて福岡の行を表示する(図24(b))。
図25は、表示装置2が行の削除を受け付ける処理を説明するフローチャート図の一例である。図25の説明では主に図19又は図22との相違を説明する。図25ではボタンでなく×マークの手書きデータで行が削除される。
まず、ステップS71,S72は図19のステップS41,S42と同様でよい。
次に、描画オブジェクト管理部42は、×マーク327が手書きされたか否かを判断する(S73)。×マーク327の認識は記号認識部48が行う。
ステップS74~S78は図22のステップS64~S68と同様でよい。
すなわち、×マークが手書きされた場合、表オブジェクト管理部43は、k+1行目のテキストをk行目にコピーすることをk=mからk=nまで繰り返す。繰り返し処理が終わると表オブジェクト管理部43は、n行目を削除する。
このように、ユーザーは行を手書きデータで囲んで、更に、×マークの手書きデータで行を削除できる。
図26は、削除前と削除後の表オブジェクト情報を説明する図である。図26(a)が削除前の描画オブジェクト情報を、図26(b)が削除後の描画オブジェクト情報を示す。図26の説明では、主に図23との相違を説明する。
図26(a)の描画オブジェクト情報は、×マークに相当する描画オブジェクトID=002の手書きデータを有している。図26(b)に示すように、n行あった行オブジェクトがn-1行になっている。図26(a)のm行目が削除されたので、図26(b)のm行目の描画オブジェクトは図26(a)のm+1行目の行の内容に置き換わっている。また、描画オブジェクトID=002の×マーク327が消去されるので、描画オブジェクト情報からも消去される。
<行の削除方法 その3>
次に、図27を参照して、行の削除方法(その3)を説明する。図27は、手書きデータで行を削除する方法を説明する図である。
図27(a)に示すように、大阪の行が選択状態であるとする。次に、ユーザーが大阪の行に斜線328を手書きする。表オブジェクト管理部43は選択された行に重畳して斜線328が手書きされたかを判断する。選択された行に重畳して斜線328が手書きされた場合、表オブジェクト管理部43は、書き込まれた位置がどの行であるかを判断する。書き込まれた行が選択されている大阪の行と判断された場合、表オブジェクト管理部43は大阪の行を削除して、名古屋の行に続けて福岡の行を表示する(図27(b))。
図28は、表示装置2が行の削除を受け付ける処理を説明するフローチャート図の一例である。図28の説明では主に図25との相違を説明する。図28では×マーク325でなく斜線328の手書きデータで行が削除される。
まず、ステップS81は図25のステップS71と同様でよい。
表オブジェクト管理部43は手書きデータが手書きされたか否かを判断する(S82)。すなわち、表オブジェクト管理部43は単に手書きされたかどうかを判断すればよい。
次に、表オブジェクト管理部43は斜線328がm行目に手書きされたか否かを判断する(S83)。すなわち、表オブジェクト管理部43は、手書きデータの始点(Sxp,Syp)が、m行目の左上座標(Sxm,Sym)の半径d以内、かつ、終点(Exp,Eyp)がm行目の右下座標(Exm,Eym)の半径d以内かどうかを判断する。dはマージンである。
ステップS84~S88は図25のステップS74~S78と同様でよい。すなわち、m行目に斜線が手書きされた場合、表オブジェクト管理部43は、k+1行目のテキストをk行目にコピーすることをk=mからk=nまで繰り返す。繰り返し処理が終わるとn行目を削除する。
このように、ユーザーは行を手書きデータで囲んで、更に、斜線328を手書きすることで行を削除できる。
図29は、削除前と削除後の描画オブジェクト情報を説明する図である。図29(a)が削除前の描画オブジェクト情報を、図29(b)が削除後の描画オブジェクト情報を示す。図29の説明では、主に図26との相違を説明する。
図29の描画オブジェクト情報は形式的には図26と同様である。ただし、図29(a)において、描画オブジェクトID=002の手書きデータは斜線328である。図29(b)は図26(b)と同様でよい。
<行のコピー又は移動 その1>
続いて、図30を参照して行のコピー又は移動方法について説明する。図30は、行のコピー又は移動方法を説明する図である。
図30(a)に示すように、大阪の行が選択状態であるとする。ユーザーが入力手段291を操作して、大阪の行を表の札幌の位置にドラッグする。表オブジェクト管理部43は入力手段291の先端のタッチ座標が札幌の行に重なっていることを検出する。これにより、プレビューデータ生成部が札幌の位置に大阪が移動した表の画像を作成して表示する(図30(b))。プレビューとはコンピュータなどにおいて、実際になんらかの出力を行う前に、出力の結果をシミュレートし、画面上で確認することをいう。
図30(b)のプレビュー画像が表示されている状態から、ユーザーが入力手段291をディスプレーから離さずに所定の時間t秒経過すると、表オブジェクト管理部43は札幌の行に大阪の行の文字列がコピーされた表を作成して表示する(図30(c))。したがって、札幌の行は上書きにより削除される。
一方、図30(b)のプレビュー画像が表示されている状態で、所定の時間t秒経過する前にユーザーがドロップすると(入力手段291をディスプレーから離すと)、表オブジェクト管理部43は札幌の位置に大阪が移動した表を表示する。札幌の行から名古屋の行は、1行ずつ繰り下がる。また、プレビュー画像生成部49はプレビュー画像を非表示にする(図30(d))。
図31は、表示装置2が行の移動を受け付ける手順を示すフローチャート図の一例である。
表オブジェクト管理部43はm行目(第一の行の一例)を選択状態にする(S91)。
表オブジェクト管理部43は、接触位置検出部40が検出する入力手段291の接触座標に基づいて、m行目が入力手段291で押下されたか否かを判断する(S92)。ユーザーが入力手段291を離さず入力手段291の位置を移動すると、接触位置検出部40が検出する入力手段291の接触座標に基づいて、表オブジェクト管理部43がそれを検出する(S93)。
入力手段291が選択されたm行からm'行(第二の行の一例)にドラッグされると、表オブジェクト管理部43がタッチ座標m'をメモリに書き込み、プレビュー画像生成部49がプレビュー画像を表示する(S94)。プレビュー画像は、図31の後述する処理と同じ処理により生成される。列の場合、m列とm'列がそれぞれ第一の列と第二の列の一例である。
入力手段291がディスプレーから離れた場合、表オブジェクト管理部43はタッチ座標m'が選択状態の行mより小さいか否かを判断する(S95)。
タッチ座標m'が選択状態の行mより小さい場合(上に移動した場合)、表オブジェクト管理部43はm行目のテキストを変数にコピーする(S96)。変数とはデータの入れ物という意味である。m行目は上書きされるためである。
そして、表オブジェクト管理部43は変数kにmを設定する(S97)。
表オブジェクト管理部43は終了条件(k=m'でNo)を満たすか否かを判断する(S98)。この終了条件はm行からm'行までコピーが終了したかを判断する。
終了条件を満たさない場合、表オブジェクト管理部43はk-1行目のテキストをk行目にコピーする(S99)。
表オブジェクト管理部43はkを1つ小さくして、ステップS98からの処理を繰り返す(S100)。
終了条件を満たす場合、表オブジェクト管理部43は変数に入れておいたm行目のテキストをm'行目にコピーする(S101)。
タッチ座標m'が選択状態の行mより大きい場合(下に移動した場合)、表オブジェクト管理部43はm行目のテキストを変数にコピーする(S102)。変数とはデータの入れ物という意味である。m行目は上書きされるためである。
そして、表オブジェクト管理部43は変数kにmを設定する(S103)。
表オブジェクト管理部43は終了条件(k=m'でNo)を満たすか否かを判断する(S104)。
終了条件を満たさない場合、表オブジェクト管理部43はk+1行目のテキストをk行目にコピーする(S105)。
表オブジェクト管理部43はkを1つ大きくして、ステップS104からの処理を繰り返す(S106)。
終了条件を満たす場合、表オブジェクト管理部43は変数に入れておいたm行目のテキストをm'行目にコピーする(S107)。
このように、ユーザーは行を選択して、入力手段291でドラッグすることで行を移動できる。
図32は、移動前と移動後の描画オブジェクト情報を示す。図32(a)は行の移動前の描画オブジェクト情報であり、図32(b)は行の移動後の描画オブジェクト情報である。図32の描画オブジェクト情報は新たにテキストの列を有している。
図32(a)のテキストの列のT1~Tnはそれぞれの行に格納されていた描画オブジェクトである。図32(a)のテキストTmが、図32(b)の1行目に移動し、テキストT1~Tm-1が1行ずつ繰り下がっている。
<行の移動 その2>
次に、図33を参照して、手書きデータによる行の移動方法(その2)を説明する。図33は、手書きデータで行を移動する方法を説明する図である。
図33(a)に示すように、大阪の行が選択状態であるとする。ユーザーが大阪の行から札幌の行に向かう矢印329を手書きする(図33(b))。表オブジェクト管理部43は手書きデータ(矢印329)の始点が選択行であると判断すると、手書きデータ(矢印329)の終点が表のどの行に書かれたかを判断する。例えば、始点が大阪、終点が札幌と判断された場合、表オブジェクト管理部43は大阪の行を札幌の位置に移動した表を作成し表示する(図33(c))。
図34は、表示装置2が行の移動を受け付ける処理を説明するフローチャート図の一例である。図34の説明では主に図31との相違を説明する。図34ではドラッグでなく矢印329の手書きデータで行が移動される。
このため、表オブジェクト管理部43は手書きデータ(矢印329)の始点がm行目に手書きされたか否かを判断する(S112)。表オブジェクト管理部43は矢印という形状かどうかを判断してもよい。
m行目に手書きされた場合、表オブジェクト管理部43は、矢印の終点が手書きされた行m'をメモリに書き込む(S113)。表オブジェクト管理部43は、終点が表の内部かどうかを判断してもよい。
以降のステップS115~S127は、図31のステップS95~S107と同様でよい。
このように、ユーザーは行を選択して、矢印329を手書きすることで行を移動できる。
図35は、移動前と移動後の描画オブジェクト情報を示す。図35(a)は行の移動前の描画オブジェクト情報であり、図35(b)は行の移動後の描画オブジェクト情報である。図35の説明では図32との相違を主に説明する。
図35(a)の描画オブジェクト情報は、矢印329に相当する描画オブジェクトID=002の手書きデータを有している。図35(b)に示すように、図35(a)のテキストTmが、図35(b)の1行目に移動し、テキストT1~Tm-1が1行ずつ繰り下がっている。
また、描画オブジェクトID=002の矢印329が消去されるので、描画オブジェクト情報からも消去される。
<行の移動 その3>
次に、図36を参照して、手書きデータによる行の移動方法(その3)を説明する。図36は、手書きデータで行を移動する方法を説明する図である。
図36(a)に示すように、大阪の行が選択状態であるとする。ユーザーが大阪の行の隣から札幌の行に向かう矢印330を手書きする(図36(b))。表オブジェクト管理部43は手書きデータ(矢印330)の始点が選択行であると判断すると、手書きデータ(矢印330)の終点が表のどの行に書かれたかを判断する。例えば、始点が大阪、終点が札幌と判断された場合、表オブジェクト管理部43は大阪の行を札幌の位置に移動した表を作成し表示する(図36(c))。
図37は、表示装置2が行の移動を受け付ける処理を説明するフローチャート図の一例である。図37の説明では主に図34との相違を説明する。図37では表の外の矢印330の手書きデータで行が移動される。
このため、表オブジェクト管理部43は手書きデータ(矢印330)の始点がm行目であって表から距離L以内(所定の距離以内)に手書きされたか否かを判断する(S132)。表オブジェクト管理部43は矢印という形状かどうかを判断してもよい。
m行目であって表から距離L以内に手書きされた場合、表オブジェクト管理部43は、矢印の終点が手書きされた行m'をメモリに書き込む(S133)。表オブジェクト管理部43は矢印の終点が表から距離L以内に手書きされたか否かを判断するとよい。
以降のステップS135~S147は、図34のステップS115~S127と同様でよい。
このように、ユーザーは行を選択して、矢印を手書きすることで行を移動できる。
図38は、行の移動前と移動後の描画オブジェクト情報を示す。図38の説明では主に図35との相違を説明する。図38は図35と形式は同じであるが、図38(a)では描画オブジェクトID=002に表の外に手書きされた矢印329の手書きデータが登録されている。図38(b)については図35(b)と同じでよい。
<表の分割>
続いて、図39を参照して、ユーザーが表の一部を分割する方法について説明する。図39は、表の分割方法を説明する図である。
図39(a)に示すように、大阪の行が選択状態である。ユーザーが入力手段291で大阪の行を表の外へドラッグアンドドロップする(図39(b))。表オブジェクト管理部43は、大阪の行に、タイトル行を継承した第二表340をドロップした座標に作成する。タイトル行は少なくとも1行目の「2020年上半期」を含み、更に一般行とは異なる色が設定されている行をいう。表オブジェクト管理部43は元の表から大阪の行を削除する(図39(c))。
図40は、表示装置2が表の分割を受け付け、表を分割する手順を示すフローチャート図である。
まず、オブジェクト選択部44がm行目を選択状態にする(S151)。
次に、表オブジェクト管理部43は、m行目がタッチされたか否かを判断する(S152)。ユーザーが入力手段291をディスプレーから離さず移動すると(S153)、表オブジェクト管理部43はタッチしている座標が表の内部か否かを判断する(S154)。
表の内部であった場合は、移動又はコピー操作なので、表オブジェクト管理部43はm'行を変数に保持しておき、プレビュー画像生成部49がプレビュー画像を表示する(S156)。このプレビュー画像は図31のステップS94と同じである。
表の外部でユーザーが入力手段291をドラッグした場合、プレビュー画像生成部49は入力手段291の先端がタッチしている座標に、表のタイトル行とm行目を結合した表のプレビュー画像を表示する(S155)。タイトル行は例えば1行目など予め定まっている。あるいは、色が付されている行がタイトル行と判断されてもよい。本実施形態では、「2020上半期」と「支店 4月 5月 6月」がタイトル行である。
そして、ユーザーが入力手段291をディスプレーから離すと、表オブジェクト管理部43はm'=nullかどうかを判断する(S157)。nullは表の外を表す。
ユーザーが入力手段291で表の外部をタッチしてディスプレーから離した場合、元の表については、第二表340に分割される行の削除処理が実行される。このため、ステップS158~S162の処理は、図22のステップS64~S68と同様になる。
そして、表オブジェクト管理部43は入力手段291が最後にタッチしていた座標に元の表のタイトル行とm行目を結合した第二表340を表示する(S163)。
ユーザーが表の内部をタッチしていた場合、ユーザーが行の移動処理を行ったと判断される。したがって、ステップS164~S176の処理は、図37のステップS135~S147と同様でよい。
このように、ユーザーは行を選択して、表の外にドラッグすることで表を分割できる。
図41は、表の分割前と分割後の描画オブジェクト情報を説明する図である。図41(a)が分割前のオブジェクト情報を、図41(b)が分割後のオブジェクト情報を示す。分割により、新たに第二表340が生成されたので、図40(b)では最後の描画オブジェクトIDが001から002に変わっている。
図41(a)の行オブジェクトID=001~00nの行は、m行目が分割されたので、行オブジェクトID=00mの行が、描画オブジェクトIDが002の描画オブジェクトに対応する。また、m+1行目以降の行は1行ずつ繰り上がる。
また、描画オブジェクトID=002の行オブジェクトIDが001になる。分割後の第二表340では1行目から行オブジェクトIDが採番されるためである。なお、分割後の表では起点座標と終点座標も新しくなる。
<主な効果>
以上説明したように、本実施形態の表示装置2は、行や列の追加、移動、削除、又は、分割などの編集を手書きデータで実行することができるので、操作性を向上させることができる。
以下の実施例では表示装置2の別の構成例について説明する。
<<表示装置の別の構成例1>>
本実施形態の表示装置2は大型のタッチパネルを有するものとして説明されているが、表示装置2はタッチパネルを有するものに限られない。
図42は、表示装置2の他の構成例を示す図である。図42では、通常のホワイトボード413の上辺にプロジェクター411が設置されている。このプロジェクター411が表示装置2に相当する。通常のホワイトボード413とは、タッチパネルと一体のフラットパネルディスプレーではなく、ユーザーがマーカーで直接、手書きするホワイトボードである。なお、ホワイトボードは黒板でもよく、映像を投影するだけの広さの平面であればよい。
プロジェクター411は超短焦点の光学系を有しており、10cm程度から歪みの少ない映像をホワイトボード413に投影できる。この映像は、無線又は有線で接続されたPCから送信されてもよいし、プロジェクター411が記憶していてもよい。
ユーザーは専用の電子ペン2501を使ってホワイトボード413に手書きする。電子ペン2501は、ユーザーが手書きのためにホワイトボード413に押しつけるとスイッチがONになり発光する発光部を例えば先端部に有している。光の波長は近赤外や赤外なのでユーザーの目には見えない。プロジェクター411はカメラを有しており、発光部を撮像して画像を解析し電子ペン2501の方向を特定する。また、電子ペン2501は発光と共に音波を発信しており、プロジェクター411は音波の到達時間により距離を算出する。プロジェクター411は、方向と距離により電子ペン2501の位置を特定できる。電子ペン2501の位置には手書きされたデータが描画(投影)される。
プロジェクター411はメニュー430を投影するので、ユーザーが電子ペン2501でボタンを押下すると、プロジェクター411が電子ペン2501の位置とスイッチのON信号により押下されたボタンを特定する。例えば、保存ボタン431が押下されると、ユーザーが手書きした手書きされたデータ(座標点列)がプロジェクター411で保存される。プロジェクター411は、予め定められたサーバー412又はUSBメモリ2600等に手書き情報を保存する。手書き情報はページごとに保存されている。画像データではなく座標のまま保存されるので、ユーザーが再編集することができる。ただし、本実施形態では操作コマンドを手書きで呼び出せるのでメニュー430は表示されなくてもよい。
<<表示装置の別の構成例2>>
図43は、表示装置2の他の構成例を示す図である。図43の例では、表示装置2は、端末装置600、画像投影装置700A、及び、ペン動作検出装置810を有する。
端末装置600は、画像投影装置700A及びペン動作検出装置810と有線で接続されている。画像投影装置700Aは、端末装置600により入力された画像データをスクリーン800に投影させる。
ペン動作検出装置810は、電子ペン820と通信を行っており、スクリーン800の近傍における電子ペン820の動作を検出する。具体的には、電子ペン820は、スクリーン800上において、電子ペン820が示している点を示す座標情報を検出し(検出方法は図42と同様でよい)、端末装置600へ送信する。
端末装置600は、ペン動作検出装置810から受信した座標情報に基づき、電子ペン820によって入力される手書きデータの画像データを生成し、画像投影装置700Aによって手書きデータの画像をスクリーン800に描画させる。
また、端末装置600は、画像投影装置700Aに投影させている背景画像と、電子ペン820によって入力された手書データの画像とを合成した重畳画像を示す重畳画像データを生成する。
<<表示装置の別の構成例3>>
図44は、表示装置2の構成例を示す図である。図44の例では、表示装置2は、端末装置600と、ディスプレー800Aと、ペン動作検出装置810Aとを有する。
ペン動作検出装置810Aは、ディスプレー800Aの近傍に配置され、ディスプレー800A上に、電子ペン820Aが示している点を示す座標情報を検出し(検出方法は図42と同様でよい)、端末装置600へ送信する。なお、図44の例では、電子ペン820Aは、端末装置600によってUSBコネクタを介して充電されても良い。
端末装置600は、ペン動作検出装置810Aから受信した座標情報に基づき、電子ペン820Aによって入力される手書データの画像の画像データを生成し、ディスプレー800Aに表示させる。
<<表示装置の別の構成例4>>
図45は、表示装置2の構成例を示す図である。図45の例では、表示装置2は、端末装置600と、画像投影装置700Aとを有する。
端末装置600は、電子ペン820Bと無線通信(Bluetooth(登録商標)等)を行って、スクリーン800上において電子ペン820Bが示す点の座標情報を受信する。座標情報は、スクリーン800に形成された微小な位置情報を電子ペン820Bが読み取ってもよいし、スクリーン800から座標情報を受信してもよい。
そして、端末装置600は、受信した座標情報に基づき、電子ペン820Bにより入力される手書データの画像の画像データを生成し、画像投影装置700Aに手書データの画像を投影させる。
また、端末装置600は、画像投影装置700Aに投影させている背景画像と、電子ペン820Bによって入力された手書データの画像とを合成した重畳画像を示す重畳画像データを生成する。
以上のように、上記した各実施形態は、様々なシステム構成において適用することができる。
<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
例えば、本実施形態では、行に関する編集を主に説明したが、ユーザーは列についても同様に編集できる。列についてはタイトル列が左端にある。
また、本実施形態では、手書きデータの入力を主に説明したが、表示装置は手書きデータを文字認識することができる。表内の描画オブジェクトは手書きデータでも文字列でもよい。
また、本実施形態では、電子黒板として使用できる表示装置を説明したが、表示装置は画像を表示できればよく、例えばデジタルサイネージなどでもよい。また、ディスプレーでなくプロジェクターが表示データを表示してもよい。この場合、本実施形態ではペン先の座標をタッチパネルで検知する方法でペンの座標を検出したが、表示装置2は、ペン先の座標を超音波により検出してもよい。ペンは発光と共に超音波を発信しており、表示装置2は超音波の到達時間により距離を算出する。表示装置2は、方向と距離によりペンの位置を特定できる。ペンの軌跡をストロークとしてプロジェクターが描画(投影)する。
また、本実施形態では電子黒板を一例として説明したが、タッチパネルを有する情報処理装置であれば好適に適用できる。電子黒板と同様の機能を有する装置を、電子ホワイトボード、電子情報ボード、インタラクティブボードなどともいう。タッチパネルを搭載した情報処理装置としては、例えば、PJ(Projector:プロジェクター)、デジタルサイネージ等の出力装置、HUD(Head Up Display)装置、産業機械、撮像装置、集音装置、医療機器、ネットワーク家電、ノートPC(Personal Computer)、携帯電話、スマートフォン、タブレット端末、ゲーム機、PDA、デジタルカメラ、ウェアラブルPC又はデスクトップPC等であってもよい。
また、図5などの構成例は、表示装置2による処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。表示装置2の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。
また、表示装置2が単体で本実施形態の機能を有する場合を説明したが、表示装置2の機能をサーバーが提供してもよい。この場合、表示装置2とサーバーがネットワークを介して通信する。表示装置2は手書きデータを表示すると共にサーバーに送信し、サーバーが文字認識や表機能などを提供する。
また、本実施形態において、比較の対象として閾値が例示されていたとしても閾値は例示された値には限定されない。このため、本実施形態では、全ての閾値に関し、閾値未満と閾値以下という記載は同等の意味を持ち、閾値超過と閾値以上という記載は同等の意味を持つ。例えば、閾値を11とした場合の閾値未満という記載は閾値が10である場合の閾値以下と同等の意味を持つ。また、閾値を10とした場合の閾値超過という記載は閾値が11である場合の閾値以上と同等の意味を持つ。
また、上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)や従来の回路モジュール等のデバイスを含むものとする。
接触位置検出部40は受付手段の一例である。オブジェクト選択部44は選択受付手段の一例である。表オブジェクト管理部43は制御手段の一例である。記号認識部48は認識手段の一例である。
2 表示装置
特開2015‐219628号公報

Claims (9)

  1. 手書きで作成された表を表示する表示装置であって、
    入力手段により手書きデータの入力を受け付ける受付手段と、
    前記表の行又は列の選択を前記手書きデータにより受け付ける選択受付手段と、
    前記選択受付手段により前記表の行又は列が選択された場合、ユーザー操作に応じて、選択された前記表の行又は列に関する前記表の編集を行う制御手段と、を有し、
    前記制御手段は、前記選択受付手段が選択を受け付けた行又は列の付近に行又は列を追加するためのボタンを表示し、
    前記受付手段が前記ボタンの押下を受け付けた場合、前記選択受付手段が選択を受け付けた行又は列の前又は後に、行又は列を追加する、
    表示装置。
  2. 前記選択受付手段は、前記受付手段が受け付けた前記手書きデータで囲まれた行又は列の選択を受け付ける請求項に記載の表示装置。
  3. 前記受付手段が受け付けた前記手書きデータを認識する認識手段を有し、
    前記選択受付手段が選択を受け付けた行又は列の隣に手書きされた前記手書きデータを、予め定められている記号に前記認識手段が認識した場合、前記制御手段は、前記選択受付手段が選択を受け付けた行又は列の前又は後に、行又は列を追加する請求項1又は2に記載の表示装置。
  4. 前記受付手段が受け付けた前記手書きデータを認識する認識手段を有し、
    前記選択受付手段が選択を受け付けた行又は列の境界に手書きされた前記手書きデータを、予め定められている記号に前記認識手段が認識した場合、前記制御手段は、前記境界に行又は列を追加する請求項1又は2に記載の表示装置。
  5. 前記制御手段は、前記選択受付手段が選択を受け付けた行又は列の付近に行又は列を削除するためのボタンを表示し、
    前記受付手段が前記ボタンの押下を受け付けた場合、前記選択受付手段が選択を受け付けた行又は列を削除する請求項1~4のいずれか1項に記載の表示装置。
  6. 前記受付手段が受け付けた前記手書きデータを認識する認識手段を有し、
    前記選択受付手段が選択を受け付けた行又は列の隣に手書きされた前記手書きデータを、予め定められている記号に前記認識手段が認識した場合、前記制御手段は、前記選択受付手段が選択を受け付けた行又は列を削除する請求項1~4のいずれか1項に記載の表示装置。
  7. 前記選択受付手段が選択を受け付けた行又は列に重畳し、前記行又は列を削除するための前記手書きデータを前記受付手段が受け付けた場合、
    前記選択受付手段が選択を受け付けた行又は列を削除する請求項1~4のいずれか1項に記載の表示装置。
  8. 手書きで作成された表を表示する表示装置が行う表示方法であって、
    受付手段が、入力手段により手書きデータの入力を受け付けるステップと、
    選択受付手段が、前記表の行又は列の選択を前記手書きデータにより受け付けるステップと、
    前記選択受付手段により前記表の行又は列が選択された場合、制御手段が、ユーザー操作に応じて、選択された前記表の行又は列に関する前記表の編集を行うステップと、
    前記制御手段が、前記選択受付手段が選択を受け付けた行又は列の付近に行又は列を追加するためのボタンを表示するステップと、
    前記受付手段が前記ボタンの押下を受け付けた場合、前記選択受付手段が選択を受け付けた行又は列の前又は後に、行又は列を追加するステップと、
    を有する表示方法。
  9. 手書きで作成された表を表示する表示装置を、
    入力手段により手書きデータの入力を受け付ける受付手段と、
    前記表の行又は列の選択を前記手書きデータにより受け付ける選択受付手段
    前記選択受付手段により前記表の行又は列が選択された場合、ユーザー操作に応じて、選択された前記表の行又は列に関する前記表の編集を行う制御手段、として機能させ、
    前記制御手段は、前記選択受付手段が選択を受け付けた行又は列の付近に行又は列を追加するためのボタンを表示し、
    前記受付手段が前記ボタンの押下を受け付けた場合、前記選択受付手段が選択を受け付けた行又は列の前又は後に、行又は列を追加する、
    プログラム。
JP2021033451A 2021-03-03 2021-03-03 表示装置、表示方法、プログラム Active JP7608874B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021033451A JP7608874B2 (ja) 2021-03-03 2021-03-03 表示装置、表示方法、プログラム
US17/582,023 US11816327B2 (en) 2021-03-03 2022-01-24 Display apparatus, method for displaying, and non-transitory recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021033451A JP7608874B2 (ja) 2021-03-03 2021-03-03 表示装置、表示方法、プログラム

Publications (2)

Publication Number Publication Date
JP2022134370A JP2022134370A (ja) 2022-09-15
JP7608874B2 true JP7608874B2 (ja) 2025-01-07

Family

ID=83117177

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021033451A Active JP7608874B2 (ja) 2021-03-03 2021-03-03 表示装置、表示方法、プログラム

Country Status (2)

Country Link
US (1) US11816327B2 (ja)
JP (1) JP7608874B2 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110078560A1 (en) 2009-09-25 2011-03-31 Christopher Douglas Weeldreyer Device, Method, and Graphical User Interface for Displaying Emphasis Animations for an Electronic Document in a Presentation Mode
US20110163968A1 (en) 2010-01-06 2011-07-07 Hogan Edward P A Device, Method, and Graphical User Interface for Manipulating Tables Using Multi-Contact Gestures
US20120013539A1 (en) 2010-07-13 2012-01-19 Hogan Edward P A Systems with gesture-based editing of tables
US20120173963A1 (en) 2010-09-21 2012-07-05 Microsoft Corporation Web page application controls
JP2012181708A (ja) 2011-03-01 2012-09-20 Ubiquitous Entertainment Inc スプレッドシート制御プログラム、スプレッドシート制御装置及びスプレッドシートの制御方法
US20140189482A1 (en) 2012-12-31 2014-07-03 Smart Technologies Ulc Method for manipulating tables on an interactive input system and interactive input system executing the method
US20140372856A1 (en) 2013-06-14 2014-12-18 Microsoft Corporation Natural Quick Functions Gestures
US20180121074A1 (en) 2016-10-28 2018-05-03 Microsoft Technology Licensing, Llc Freehand table manipulation

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8773370B2 (en) * 2010-07-13 2014-07-08 Apple Inc. Table editing systems with gesture-based insertion and deletion of columns and rows
JP5807699B1 (ja) 2014-05-15 2015-11-10 合同会社Uxイノベーションズ 情報処理装置及びプログラム
JP2016134014A (ja) 2015-01-20 2016-07-25 株式会社リコー 電子情報ボード装置、情報処理方法およびプログラム
US9965445B2 (en) * 2015-08-06 2018-05-08 FiftyThree, Inc. Systems and methods for gesture-based formatting

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110078560A1 (en) 2009-09-25 2011-03-31 Christopher Douglas Weeldreyer Device, Method, and Graphical User Interface for Displaying Emphasis Animations for an Electronic Document in a Presentation Mode
US20110163968A1 (en) 2010-01-06 2011-07-07 Hogan Edward P A Device, Method, and Graphical User Interface for Manipulating Tables Using Multi-Contact Gestures
US20120013539A1 (en) 2010-07-13 2012-01-19 Hogan Edward P A Systems with gesture-based editing of tables
US20120173963A1 (en) 2010-09-21 2012-07-05 Microsoft Corporation Web page application controls
JP2012181708A (ja) 2011-03-01 2012-09-20 Ubiquitous Entertainment Inc スプレッドシート制御プログラム、スプレッドシート制御装置及びスプレッドシートの制御方法
US20140189482A1 (en) 2012-12-31 2014-07-03 Smart Technologies Ulc Method for manipulating tables on an interactive input system and interactive input system executing the method
US20140372856A1 (en) 2013-06-14 2014-12-18 Microsoft Corporation Natural Quick Functions Gestures
US20180121074A1 (en) 2016-10-28 2018-05-03 Microsoft Technology Licensing, Llc Freehand table manipulation

Also Published As

Publication number Publication date
US20220283701A1 (en) 2022-09-08
US11816327B2 (en) 2023-11-14
JP2022134370A (ja) 2022-09-15

Similar Documents

Publication Publication Date Title
JP7556214B2 (ja) 電子黒板、音声再生方法、プログラム及び画像処理システム
US9454257B2 (en) Electronic system
JP7600781B2 (ja) 表示装置、表示方法、プログラム
JP7559496B2 (ja) 入力装置、入力方法、及びプログラム
JP7615805B2 (ja) 表示装置、プログラム、表示方法、表示システム
JP2021036401A (ja) 表示装置、表示方法、プログラム
JP6773977B2 (ja) 端末装置及び操作制御プログラム
JP7608874B2 (ja) 表示装置、表示方法、プログラム
JP2023034010A (ja) 表示装置、表示システム、表示制御方法、及びプログラム
JP2022057931A (ja) 表示装置、表示方法、プログラム
US11782594B2 (en) Display apparatus, display system, and display method
JP7615810B2 (ja) 表示装置、表示方法、プログラム
JP7739733B2 (ja) 表示装置、表示方法、プログラム、表示システム
JP7613193B2 (ja) 表示装置、表示方法、プログラム
JP7480608B2 (ja) 表示装置、表示方法、プログラム
JP2022087633A (ja) 表示装置、消去方法切替方法、プログラム
JP2021197024A (ja) 表示装置、表示方法及びプログラム
JP7683253B2 (ja) 表示装置、プログラム、変換方法、表示システム
US11726654B2 (en) Display apparatus capable of displaying icon corresponding to shape of hand-drafted input, display method, and non-transitory computer-executable medium storing program thereon
JP6821998B2 (ja) 電子黒板、プログラム、方法
JP7619115B2 (ja) 表示装置、表示方法、プログラム
JP7604974B2 (ja) 表示装置、表示方法、プログラム
US12159029B2 (en) Display apparatus, display system, display method, and non-transitory recording medium
JP2022146853A (ja) 表示装置、プログラム、表示方法、表示システム
KR102149465B1 (ko) 이동단말 및 그 제어방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20241119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20241202

R150 Certificate of patent or registration of utility model

Ref document number: 7608874

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150