JP2017068406A - 電子機器および方法 - Google Patents

電子機器および方法 Download PDF

Info

Publication number
JP2017068406A
JP2017068406A JP2015190835A JP2015190835A JP2017068406A JP 2017068406 A JP2017068406 A JP 2017068406A JP 2015190835 A JP2015190835 A JP 2015190835A JP 2015190835 A JP2015190835 A JP 2015190835A JP 2017068406 A JP2017068406 A JP 2017068406A
Authority
JP
Japan
Prior art keywords
content
types
application program
contents
created
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015190835A
Other languages
English (en)
Other versions
JP6147825B2 (ja
Inventor
幸宏 栗田
Yukihiro Kurita
幸宏 栗田
吉原 浩登
Hirotaka Yoshihara
浩登 吉原
秀哉 南地
Hideya Nanchi
秀哉 南地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2015190835A priority Critical patent/JP6147825B2/ja
Priority to US15/005,978 priority patent/US10296170B2/en
Publication of JP2017068406A publication Critical patent/JP2017068406A/ja
Application granted granted Critical
Publication of JP6147825B2 publication Critical patent/JP6147825B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments
    • G06V30/1423Image acquisition using hand-held instruments; Constructional details of the instruments the instrument generating sequences of position coordinates corresponding to handwriting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • G06V30/333Preprocessing; Feature extraction
    • G06V30/347Sampling; Contour coding; Stroke extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • G06V30/36Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Processing Or Creating Images (AREA)
  • Digital Computer Display Output (AREA)

Abstract

【課題】複数種のアプリケーションプログラムによって作成された複数種のコンテンツ間の関連性をユーザに分かりやすく提示することができる電子機器を実現する。【解決手段】実施形態によれば、電子機器は、ディスプレイと、処理手段とを具備する。前記処理手段は、複数種のアプリケーションプログラムによって作成された複数種のコンテンツを管理し、前記複数種のコンテンツの内、第1期間内に作成された複数種の第1コンテンツを前記ディスプレイの画面上の第1表示領域に時系列順に表示する。【選択図】図10

Description

本発明の実施形態は、コンテンツを管理する技術に関する。
近年、パーソナルコンピュータ、タブレット、PDA、スマートフォンといった種々の電子機器が開発されている。
また最近では、会議、商談、プレゼンテーションのような様々なビジネスシーンにおいて利用可能な様々な種類のアプリケーションプログラムが開発されている。
特開2010−033132号公報
これらアプリケーションプログラムによって作成されるコンテンツの中には、互いに関連するコンテンツ、例えば、同じ会議に関するコンテンツが存在する場合がある。よって、異なるアプリケーションプログラムのコンテンツ間の関連性をユーザに提示するための新たな機能の実現が必要とされる。
本発明の一形態の目的は、複数種のアプリケーションプログラムによって作成された複数種のコンテンツ間の関連性をユーザに分かりやすく提示することができる電子機器および方法を提供することである。
実施形態によれば、電子機器は、ディスプレイと、処理手段とを具備する。前記処理手段は、複数種のアプリケーションプログラムによって作成された複数種のコンテンツを管理する。前記処理手段は、前記複数種のコンテンツの内、第1期間内に作成された複数種の第1コンテンツを前記ディスプレイの画面上の第1表示領域に時系列順に表示する。
実施形態に係る電子機器の外観を示す例示的な斜視図。 図1の電子機器と外部装置との連携動作を示す例示的な図。 図1の電子機器のタッチスクリーンディスプレイ上に手書きされる手書き文書の例を示す図。 図1の電子機器によって生成される時系列データを説明するための例示的な図。 図1の電子機器のシステム構成を示す例示的なブロック図。 図1の電子機器上で実行される複数種のアプリケーションプログラム間の連携動作を示す例示的な図。 図1の電子機器によって実行される手書きノートアプリケーションプログラムの機能構成を示す例示的なブロック図。 図1の電子機器によって表示される編集画面を示す例示的な図。 図8の編集画面上に表示されるボイスレコーダアプリケーションのデータ(コンテンツ)の例を示す図。 図1の電子機器によって表示される全コンテンツ一覧画面の例を示す図。 図10の全コンテンツ一覧画面上に表示される月リストの例を示す図。 図11の月リストを利用して実行される月ジャンプ動作の例を示す図。 図10の全コンテンツ一覧画面上に表示されるノートフィルターの例を示す図。 図10の全コンテンツ一覧画面上に表示されるソートメニューの例を示す図。 図10の全コンテンツ一覧画面上に表示されるメニューの例を示す図。 図10の全コンテンツ一覧画面上に表示される選択ノートリストの例を示す図。 ユーザ作成ノートに移動されたコンテンツの色がこのユーザ作成ノートの色に変更される様子を示す図。 図10の全コンテンツ一覧画面上のコンテンツの一つを選択する動作を説明するための図。 プレビューモードにおいて図1の電子機器によって表示されるコンテンツの例を示す図。 プレビューモードにおいて選択されたコンテンツを手書きによって編集するための編集画面の例を示す図。 図20の編集画面上であるコンテンツが編集された後に図1の電子機器によって表示される全コンテンツ一覧画面の例を示す図。 図1の電子機器によって編集画面上に表示される編集ツールバーの例を示す図。 追加ノート処理時またノートプロパティ変更処理時に図1の電子機器によって表示されるノートプロパティ設定画面の例を示す図。 追加ノート処理後に図1の電子機器によって表示される編集画面の例を示す図。 図1の電子機器によって表示される検索画面の例を示す図。 図1の電子機器によって表示される検索結果画面の例を示す図。 図1の電子機器によって実行される、編集画面/全コンテンツ一覧画面表示処理の手順を示す例示的なフローチャート。 図1の電子機器によって実行される全コンテンツ一覧表示処理の手順を示す例示的なフローチャート。 図1の電子機器によって実行されるフィルタリング処理の手順を示す例示的なフローチャート。 図1の電子機器によって実行される削除/ムーブ処理の手順を示す例示的なフローチャート。 図1の電子機器によって実行されるプレビュー/編集処理の手順を示す例示的なフローチャート。
以下、実施の形態について図面を参照して説明する。
図1は、一実施形態に係る電子機器の外観を示す斜視図である。この電子機器は、例えば、ペン(スタイラス)または指によって手書き入力可能なペン・ベースの携帯型電子機器である。この電子機器は、タブレットコンピュータ、ノートブック型パーソナルコンピュータ、スマートフォン、PDA等として実現され得る。以下では、この電子機器がタブレットコンピュータ10として実現されている場合を想定する。タブレットコンピュータ10は、タブレットまたはスレートコンピュータとも称される携帯型電子機器である。タブレットコンピュータ10は、図1に示すように、本体11とタッチスクリーンディスプレイ17とを備える。本体11は、薄い箱形の筐体を有している。本体11の背面には、カメラ111が設けられている。タッチスクリーンディスプレイ17は、本体11の表面に重ね合わさるように取り付けられている。
タッチスクリーンディスプレイ17には、フラットパネルディスプレイと、センサとが組み込まれている。センサは、フラットパネルディスプレイの画面とペンまたは指との接触位置を検出するように構成されている。フラットパネルディスプレイは、例えば、液晶表示装置(LCD)であってもよい。センサとしては、例えば、静電容量方式のタッチパネル、電磁誘導方式のデジタイザなどを使用することができる。以下では、限定されないが、タッチパネルがタッチスクリーンディスプレイ17に組み込まれている場合を想定する。
タッチパネルは、例えば、フラットパネルディスプレイの画面上に配置される。このタッチスクリーンディスプレイ17は、指を使用した画面に対するタッチ操作のみならず、ペン100を使用した画面に対するタッチ操作も検出することができる。ペン100の例は、アクティブペン、パッシブペン、等を含む。以下では、限定されないが、ペン100としてアクティブペンが使用される場合を想定する。
ユーザは、外部オブジェクト(ペン100又は指)を使用してタッチスクリーンディスプレイ17上で手書き入力操作を行うことができる。手書き入力操作中においては、画面上の外部オブジェクト(ペン100又は指)の動きの軌跡、つまり筆跡がリアルタイムに描画される。外部オブジェクトが画面に接触されている間の外部オブジェクトの動きの軌跡が1ストロークに相当する。手書きされた文字または図形などに対応する多数のストロークの集合が手書き文書を構成する。
本実施形態では、この手書き文書は、イメージデータではなく、各ストロークの軌跡の座標列とストローク間の順序関係とを示す時系列データとして記憶媒体に保存される。この時系列データの詳細は図4を参照して後述するが、この時系列データは、複数のストロークにそれぞれ対応する複数のストロークデータを含む。各ストロークデータは、ある一つのストロークに対応し、このストローク上の点それぞれに対応する座標データ系列(時系列座標)を含む。これらストロークデータの並びの順序は、ストロークそれぞれが手書きされた順序つまり筆順に相当する。
タブレットコンピュータ10は、記憶媒体から既存の任意の時系列データ(手書き文書情報)を読み出し、この手書き文書情報によって示される筆跡(複数のストローク)を画面上に表示することができる。さらに、タブレットコンピュータ10は編集機能を有している。この編集機能は、「消しゴム」ツール、「範囲選択」ツール、および他の各種ツール等によって、表示中の手書き文書内の任意のストロークまたは任意の手書き文字等を削除または移動することができる。さらに、この編集機能は、幾つかの手書き操作の履歴を取り消す機能も含んでいる。
さらに、タブレットコンピュータ10は、自動補完(ストローク推薦)機能も有している。この自動補完機能は、多くの文字列を手書きによって容易に入力できるようにするために、ユーザの手書き入力操作をアシストするための機能である。
図2は、タブレットコンピュータ10と外部装置との連携動作の例を示している。タブレットコンピュータ10は、パーソナルコンピュータ1やクラウドと連携することができる。すなわち、タブレットコンピュータ10は、無線LANなどの無線通信デバイスを備えており、パーソナルコンピュータ1との無線通信を実行することができる。さらに、タブレットコンピュータ10は、インターネット上のサーバ2との通信を実行することもできる。サーバ2はオンラインストレージサービス、他の各種クラウドコンピューティングサービスを実行するサーバであってもよい。
パーソナルコンピュータ1はハードディスクドライブ(HDD)のようなストレージデバイスを備えている。タブレットコンピュータ10は、時系列データ(手書き文書)をネットワーク越しにパーソナルコンピュータ1に送信して、パーソナルコンピュータ1のHDDに記録することができる(アップロード)。
これにより、タブレットコンピュータ10内のストレージの容量が少ない場合でも、タブレットコンピュータ10が多数の時系列データ(手書き文書)あるいは大容量の時系列データ(手書き文書)を扱うことが可能となる。
さらに、タブレットコンピュータ10は、パーソナルコンピュータ1のHDDに記録されている任意の1以上の手書き文書を読み出すことすができる(ダウンロード)。タブレットコンピュータ10は、この読み出した手書き文書によって示されるストロークそれぞれをタブレットコンピュータ10のタッチスクリーンディスプレイ17の画面に表示することができる。
さらに、タブレットコンピュータ10が通信する先はパーソナルコンピュータ1ではなく、上述したように、ストレージサービスなどを提供するクラウド上のサーバ2であってよい。タブレットコンピュータ10は、手書き文書をネットワーク越しにサーバ2に送信して、サーバ2のストレージデバイス2Aに記録することができる(アップロード)。さらに、タブレットコンピュータ10は、サーバ2のストレージデバイス2Aに記録されている任意の手書き文書を読み出すことができる(ダウンロード)。タブレットコンピュータ10は、この読み出した手書き文書によって示されるストロークそれぞれをタブレットコンピュータ10のタッチスクリーンディスプレイ17の画面に表示することができる。
このように、本実施形態では、手書き文書が格納される記憶媒体は、タブレットコンピュータ10内のストレージデバイス、パーソナルコンピュータ1内のストレージデバイス、サーバ2のストレージデバイスのいずれであってもよい。
次に、図3および図4を参照して、ユーザによって手書きされたストローク(文字、マーク、図形(線図)、表など)と手書き文書との関係について説明する。図3は、ペン100などを使用してタッチスクリーンディスプレイ17上に手書きされる手書き文字列の例を示している。
手書き文書では、一旦手書きされた文字や図形などの上に、さらに別の文字や図形などが手書きされるというケースが多い。図3においては、「ABC」の手書き文字列が「A」、「B」、「C」の順番で手書きされ、この後に、手書きの矢印が、手書き文字「A」のすぐ近くに手書きされた場合が想定されている。
手書き文字「A」は、ペン100などを使用して手書きされる2つのストローク(「∧」形状の軌跡、「−」形状の軌跡)によって表現される。最初に手書きされる「∧」形状のペン100の軌跡は例えば等時間間隔でリアルタイムにサンプリングされ、これによって「∧」形状のストロークの時系列座標SD11、SD12、…SD1nが得られる。同様に、次に手書きされる「−」形状のペン100の軌跡も等時間間隔でリアルタイムにサンプリングされ、これによって「−」形状のストロークの時系列座標SD21、SD22、…SD2nが得られる。
手書き文字「B」は、ペン100などを使用して手書きされた2つのストローク、つまり2つの軌跡によって表現される。手書き文字「C」は、ペン100などを使用して手書きされた1つのストローク、つまり1つの軌跡によって表現される。手書きの「矢印」は、ペン100などを使用して手書きされた2つのストローク、つまり2つの軌跡によって表現される。
図4は、図3の手書き文字列に対応する時系列データ200を示している。時系列データ200は、複数のストロークデータSD1、SD2、…、SD7を含む。時系列データ200内においては、これらストロークデータSD1、SD2、…、SD7は、筆跡順に、つまり複数のストロークが手書きされた順に時系列に並べられている。
時系列データ200において、先頭の2つのストロークデータSD1、SD2は、手書き文字「A」の2つのストロークをそれぞれ示している。3番目と4番目のストロークデータSD3、SD4は、手書き文字「B」を構成する2つのストロークをそれぞれ示している。5番目のストロークデータSD5は、手書き文字「C」を構成する1つのストロークを示している。6番目と7番目のストロークデータSD6、SD7は、手書き「矢印」を構成する2つのストロークをそれぞれ示している。
各ストロークデータは、一つのストロークの軌跡上の複数の点それぞれに対応する複数の座標を含む。各ストロークデータにおいては、複数の座標はストロークが書かれた順に時系列に並べられている。例えば、手書き文字「A」に関しては、ストロークデータSD1は、手書き文字「A」の「∧」形状のストロークの軌跡上の点それぞれに対応する座標データ系列(時系列座標)、つまりn個の座標データSD11、SD12、…SD1nを含む。ストロークデータSD2は、手書き文字「A」の「−」形状のストロークの軌跡上の点それぞれに対応する座標データ系列、つまりn個の座標データSD21、SD22、…SD2nを含む。なお、座標データの数はストロークデータ毎に異なっていてもよい。
各座標データは、対応する軌跡内のある1点に対応するX座標およびY座標を示す。例えば、座標データSD11は、「∧」形状のストロークの始点のX座標(X11)およびY座標(Y11)を示す。SD1nは、「∧」形状のストロークの終点のX座標(X1n)およびY座標(Y1n)を示す。
さらに、各座標データは、その座標に対応する点が手書きされた時点に対応するタイムスタンプ情報Tを含んでいてもよい。手書きされた時点は、絶対時間(例えば、年月日時分秒)またはある時点を基準とした相対時間のいずれであってもよい。例えば、各ストロークデータに、ストロークが書き始められた絶対時間(例えば、年月日時分秒)をタイムスタンプ情報として付加し、さらに、ストロークデータ内の各座標データに、絶対時間との差分を示す相対時間をタイムスタンプ情報Tとして付加してもよい。
さらに、各座標データには、筆圧を示す情報(Z)を追加してもよい。
図5は、タブレットコンピュータ10のシステム構成を示す。
タブレットコンピュータ10は、図5に示されるように、CPU101、システムコントローラ102、主メモリ103、グラフィクスコントローラ104、BIOS−ROM105、不揮発性メモリ106、無線通信デバイス107、エンベデッドコントローラ(EC)108、二つのマイクロフォン110L,110R、カメラ111等を備える。
CPU101は、タブレットコンピュータ10のコンポーネントの動作を制御するプロセッサである。プロセッサは処理回路を含む。CPU101は、ストレージデバイスである不揮発性メモリ106から主メモリ103にロードされる各種コンピュータプログラムを実行する。これらプログラムには、オペレーティングシステム(OS)201、および様々なアプリケーションプログラムが含まれている。アプリケーションプログラムには、手書きノートアプリケーションプログラム202、キャプチャアプリケーションプログラム203、ボイスレコーダアプリケーションプログラム204、クリッパーアプリケーションプログラム205、コラボレーションアプリケーションプログラム206等が含まれている。
手書きノートアプリケーションプログラム202は、メモをとることが可能なデジタルノートブックアプリケーションである。この手書きノートアプリケーションプログラム202は、上述の手書き文書を作成および表示する機能、手書き文書を編集する機能、および自動補完機能等を有している。さらに、手書きノートアプリケーションプログラム202は、他の種類のアプリケーションプログラムと連携するための機能を有している。この連携機能により、手書きノートアプリケーションプログラム202は、他の種類のアプリケーションプログラムによって作成されたデータ(コンテンツ)を他の種類のアプリケーションプログラムから取得することができる。他の種類の各アプリケーションプログラムは、作成されたデータを自身で管理すると共に、例えば、その作成されたデータの複製を、手書きノートアプリケーションプログラム202に提供してもよい。
手書きノートアプリケーションプログラム202と連携するアプリケーションプログラムの例には、上述のキャプチャアプリケーションプログラム203、ボイスレコーダアプリケーションプログラム204、クリッパーアプリケーションプログラム205、コラボレーションアプリケーションプログラム206が含まれてもよい。
これらキャプチャアプリケーションプログラム203、ボイスレコーダアプリケーションプログラム204、クリッパーアプリケーションプログラム205、コラボレーションアプリケーションプログラム206は、手書きノートアプリケーションプログラム202と同様に、様々なビジネスシーンで日常的に利用することが可能なアプリケーションプログラムである。
キャプチャアプリケーションプログラム203は、カメラ111によって被写体の画像をキャプチャするように構成されたアプリケーションプログラムである。キャプチャアプリケーションプログラム203は、例えば、ホワイトボード、紙資料、本、ノート、名刺などに対応する様々な文書画像を取り込むことができる。さらに、キャプチャアプリケーションプログラム203は、取り込んだ文書画像内の被写体の形状を補正する機能を有している。
ボイスレコーダアプリケーションプログラム204は、音声を録音するように構成されたアプリケーションプログラムであり、会議の録音、プレゼンテーションの録音のような、様々なシーンの録音を行うことができる。ボイスレコーダアプリケーションプログラム204は、話者クラスタリング機能をサポートする。話者クラスタリング機能は、録音データ内の発話区間それぞれを複数の話者に対応する複数のクラスタに分類することができる。ボイスレコーダアプリケーションプログラム204は、話者クラスタリングの結果を使用することによって、発話区間それぞれを話者別に表示することができる。この可視化機能により、何時、どの話者が発話したかをユーザに分かりやすく提示することができる。さらに、ボイスレコーダアプリケーションプログラム204は、話者の数、各話者の総発話時間、録音データの時間長等に基づいて、この録音データの種別を判定することができる。録音データの種別には、一人の話者による発話を含み総時間長が短いボイスメモ、複数の話者による発話を含み総時間長が長い会議録音、等が含まれてもよい。
クリッパーアプリケーションプログラム205は、タブレットコンピュータ10のLCD17Aに表示される様々な画面イメージをクリップデータとして取り込むためのアプリケーションプログラムである。クリッパーアプリケーションプログラム205は、クリップデータ上にストロークを手書きするための手書き機能を有していてもよい。
コラボレーションアプリケーションプログラム206は、手書きコラボレーション機能をサポートする。この手書きコラボレーション機能は、同一のグループに参加している複数のデバイスのいずれかにおいて手書き入力されるストロークデータを、このグループ内の他のデバイスにそれぞれリアルタイムに配信する。これによって、これらデバイスの画面に表示される手書き文書の内容を同期させることができる。
また、CPU101は、BIOS−ROM105に格納された基本入出力システム(BIOS)も実行する。BIOSは、ハードウェア制御のためのプログラムである。
システムコントローラ102は、CPU101のローカルバスと各種コンポーネントとの間を接続するデバイスである。システムコントローラ102には、主メモリ103をアクセス制御するメモリコントローラも内蔵されている。また、システムコントローラ102は、PCI EXPRESS規格のシリアルバスなどを介してグラフィクスコントローラ104との通信を実行する機能も有している。
グラフィクスコントローラ104は、タブレットコンピュータ10のディスプレイモニタとして使用されるLCD17Aを制御する表示コントローラである。表示コントローラは表示制御回路を含む。このグラフィクスコントローラ104によって生成される表示信号はLCD17Aに送られる。LCD17Aは、表示信号に基づいて画面イメージを表示する。このLCD17A上にはタッチパネル17Bが配置されている。
無線通信デバイス107は、無線LANまたは3G移動通信などの無線通信を実行するように構成されたデバイスである。EC108は、電力管理のためのエンベデッドコントローラを含むワンチップマイクロコンピュータである。EC108は、ユーザによるパワーボタンの操作に応じてタブレットコンピュータ10を電源オンまたは電源オフする機能を有している。
タブレットコンピュータ10は、入力デバイス109(マウス、キーボード等)と通信するため周辺インタフェースを備えていてもよい。
<手書きノートアプリケーションプログラム202の特徴>
以下、手書きノートアプリケーションプログラム202の幾つかの特徴について説明する。
<筆跡検索機能>
手書きノートアプリケーションプログラム202は、筆跡(ストローク)検索によって所望の筆跡(手書き文字、手書き図形、手書き表、等)を含む所望のページを検索することができる。この機能は、認識技術に基づいている。
ユーザが筆跡(1以上のストローク)を検索キーとして手書き入力した時、所望のページを検索するために2つの方法が使用できる。一方は筆跡特徴(ストローク特徴)のパターンマッチングであり、他方は文字認識をベースとした文字マッチングである。手書きノートアプリケーションプログラム202は、入力された筆跡(1以上のストローク)に基づいて、使用すべきアルゴリズムをこれら2つの方法の間で自動的に変更する。たとえば、入力された筆跡(1以上のストローク)の文字列尤度が高い場合、つまり入力された筆跡が文字列である可能性が高い場合には、文字マッチングが使用される。一方、入力された筆跡(1以上のストローク)の文字列尤度が低い場合、つまり入力された筆跡が図形、表、マークである可能性が高い場合には、ストローク特徴のパターンマッチングが使用される。
ストローク特徴のパターンマッチングにおいては、検索キーとして入力された筆跡に類似する特徴を有する筆跡が探される。たとえば、検索キーとして入力された筆跡の形状に類似する形状を有する筆跡が探される。これにより、手書きによって入力されたストロークを含む多数のページ(手書きページ)の中から、ある手書きマーク(星マークなど)を含むページ(手書きページ)を容易に探すことができる。
文字認識をベースとした文字マッチングでは、検索キーとして入力された筆跡は、文字認識によってテキスト(文字列)に変換される。そして、このテキスト(文字列)と同じ文字列を含むページが探される。
<認識・整形機能>
手書きノートアプリケーションプログラム202は、選択された手書きオブジェクト(例えば、手書き文字、手書き図形、手書きの表)をフォーマットされたオブジェクトに変換する。フォーマットされたオブジェクトは、他のアプリケーションプログラムが扱うことが可能なデータフォーマットを有するオブジェクトである。手書きノートアプリケーションプログラム202は、選択されたオブジェクトをフォーマットされたオブジェクトに変換し、このフォーマットされたオブジェクトをクリップボードにコピー(格納)する。ペースト対象アプリケーションは、プレゼンテーションアプリケーション、ワードプロセッシングアプリケーションである。選択されたオブジェクトをフォーマットされたオブジェクトに変換する処理は、文字認識、図形認識、表認識を使用して実行される。文字認識は、手書き文字列に対応するストロークを、認識されたテキストに変換する。図形認識は、手書きされた図形に対応するストロークをフォーマットされた図形オブジェクトに変換する。表認識は、手書きされた表に対応するストロークをフォーマットされた表オブジェクトに変換する。
<自動補完機能>
手書きノートアプリケーションプログラム202は、自動補完機能を有する。自動補完機能は、ユーザによって手書き入力されたストローク(仮ストローク)から定められる入力の候補である1以上の筆跡(1以上の筆跡候補)をディスプレイに表示する。自動補完機能は、1以上の候補筆跡のいずれかがユーザによって選択される場合、仮ストロークの代わりに、この選択された候補筆跡をページに入力することができる。
たとえば、ユーザによって文字「a」に対応する仮ストロークが入力された時、文字列「apple」に対応する筆跡、文字列「application」に対応する筆跡、文字列「aprobal」に対応する筆跡等を含む候補筆跡メニューがディスプレイに表示されてもよい。ユーザが候補筆跡メニュー上のある1つの候補筆跡を選択した時、手書きノートアプリケーションプログラム202は、この候補筆跡を、仮ストロークに代えて、入力する。つまり、ユーザによって入力された仮ストロークは、この選択された候補筆跡を使用して補完される。
自動補完機能では、筆跡候補は、ユーザによって過去に入力された手書き文書から抽出される。このことは、ユーザが、ユーザが過去に入力した手書き文書を再利用できることを意味する。
<全コンテンツ一覧表示機能>
手書きノートアプリケーションプログラム202は、自身によって作成された手書きページのみならず、他のアプリケーションプログラム(例えば、キャプチャアプリケーションプログラム203、ボイスレコーダアプリケーションプログラム204、クリッパーアプリケーションプログラム205、コラボレーションアプリケーションプログラム206)のコンテンツも、手書きページと同様に管理することができる。手書きページおよび他のアプリケーションプログラムのコンテンツのどちらも、データ(データファイル)として管理される。
手書きノートアプリケーションプログラム202は、複数種のアプリケーションプログラムによって作成された複数種のコンテンツの一覧、つまり、手書きページと他のアプリケーションプログラムのコンテンツとを含む全てのコンテンツ(全てのデータファイル)の一覧を全コンテンツ一覧表示画面上に表示する。全コンテンツ一覧表示画面は、手書きノートアプリケーションプログラム202のコンテンツを表示するための画面であり、手書きノートアプリケーションプログラム202によって表示される。
会議においては、手書きによってメモを取りながら、会議の音声を録音したり、紙資料またはホワイトボードの画像をキャプチャする場合がある。この場合、これら音声データおよび画像データの作成日時と手書きページの作成日時(または更新日時)とは、ある一定期間内に属する可能性がある。
したがって、手書きノートアプリケーションプログラム202は、複数種のコンテンツの内、ある一定期間内に作成された複数種のコンテンツ(複数種の第1コンテンツ)のみを全コンテンツ一覧表示画面上のある一つの表示領域に時系列順に表示する。これにより、例えば、ある手書きページと、この手書きページとほぼ同時期に作成された他のアプリケーションのコンテンツとが、この全コンテンツ一覧表示画面上の互いに近接した場所に表示される。これにより、手書きページと他のアプリケーションプログラムのコンテンツとの間の関連性をユーザに提示することができる。
全コンテンツ一覧表示機能は手書きノートアプリケーションプログラム202によって実行される機能であるので、ユーザは、手書きノートアプリケーションプログラム202を起動するだけで、手書きノートアプリケーションプログラム202を含む複数種のアプリケーションプログラムによって作成された複数種のコンテンツの一覧を閲覧することができる。
図6は、複数種のアプリケーションプログラム間の連携動作を示す。
手書きノートアプリケーションプログラム202は、キャプチャアプリケーションプログラム203、ボイスレコーダアプリケーションプログラム204のような他のアプリケーションプログの各々からデータ(コンテンツ)を受信することができる。
キャプチャアプリケーションプログラム203は、キャプチャアプリケーションプログラム203によって作成されたデータ(例えば画像データファィルのようなコンテンツ)を記憶媒体402内のキャプチャアプリケーションフォルダ211に保存すると共に、そのデータ(コンテンツ)の複製を、手書きノートアプリケーションプログラム202に提供しても良い。この場合、キャプチャアプリケーションプログラム203は、データ(コンテンツ)の複製を、手書きノートアプリケーションプログラム202に直接的に送信してもよいし、上述の複数種のアプリケーションプログラムによって共有されるフォルダ(キャッシュフォルダ212)にデータ(コンテンツ)の複製を保存してもよい。
同様に、ボイスレコーダアプリケーションプログラム204も、ボイスレコーダアプリケーションプログラム204によって作成されたデータ(例えば音声データファイルのようなコンテンツ)を記憶媒体402内のボイスレコーダアプリケーションフォルダ213に保存すると共に、そのデータ(コンテンツ)の複製を、手書きノートアプリケーションプログラム202に提供しても良い。通常、音声データファイルのサイズは非常に大きい。したがって、ボイスレコーダアプリケーションプログラム204は、音声データの複製そのものではなく、音声データのメタデータのみを手書きノートアプリケーションプログラム202に提供しても良い。この場合、ボイスレコーダアプリケーションプログラム204は、音声データのメタデータを、手書きノートアプリケーションプログラム202に直接的に送信してもよいし、キャッシュフォルダ212にメタデータを保存してもよい。
キャッシュフォルダ212は、例えば、手書きノートアプリケーションプログラム202のインストール時に作成されてもよい。キャッシュフォルダ212が作成された後、キャプチャアプリケーションプログラム203、ボイスレコーダアプリケーションプログラム204の各々は、キャプチャアプリケーションプログラム203、ボイスレコーダアプリケーションプログラム204の各々によって作成されたコンテンツを自身のフォルダに保存する度に、そのコンテンツの複製をキャッシュフォルダ212に保存してもよい。
手書きノートアプリケーションプログラム202の初回の起動時に、手書きノートアプリケーションプログラム202は、手書きノートアプリケーションプログラム202が利用可能状態になったことをキャプチャアプリケーションプログラム203、ボイスレコーダアプリケーションプログラム204のような他の幾つかのアプリケーションプログラムにそれぞれ通知するための幾つかのデータ(ファイル)をキャッシュフォルダ212内に登録してもよい。
キャプチャアプリケーションプログラム203、ボイスレコーダアプリケーションプログラム204の各々は、その起動時に、キャッシュフォルダ212を参照することによって手書きノートアプリケーションプログラム202が利用可能状態になったか否かを判定してもよい。手書きノートアプリケーションプログラム202が利用可能状態になったことが判定された場合には、キャプチャアプリケーションプログラム203、ボイスレコーダアプリケーションプログラム204の各々は、作成済みの既存のデータ(コンテンツ)を手書きノートアプリケーションプログラム202と共有するか否かをユーザに問い合わせてもよい。作成済みの既存のデータの共有がユーザによって許可された場合には、キャプチャアプリケーションプログラム203、ボイスレコーダアプリケーションプログラム204の各々は、作成済みの既存のデータの複製をキャッシュフォルダ212に保存してもよい。
手書きノートアプリケーションプログラム202は、記憶媒体402内の手書きノートアプリケーションフォルダ214に手書きページそれぞれを保存する。これら手書きページは、ユーザによって作成されたノート(User Created Note1、User Created Note2)215、216に関連づけられた状態で、または予め作成されているノート(Unclassified Note)217に関連づけられた状態で保存される。
手書きノートアプリケーションプログラム202が起動された時または手書きノートアプリケーションプログラム202がフォーカスされた時、手書きノートアプリケーションプログラム202は、キャッシュフォルダ212からデータ(コンテンツ)を取得し、取得したデータ(コンテンツ)をUnclassified Note217内のコンテンツとして手書きノートアプリケーションフォルダ214内に保存する。
次に、図7を参照して、手書きノートアプリケーションプログラム202の構成について説明する。
手書きノートアプリケーションプログラム202は、ペン軌跡表示処理部301、時系列データ生成部302、編集処理部303、ページ保存処理部304、ページ取得処理部305、手書き文書表示処理部306、および処理部308等を備える。
手書きノートアプリケーションプログラム202は、タッチスクリーンディスプレイ17を用いて入力されるストロークデータを使用することによって、手書き文書(手書きデータ)の作成、表示、編集等を行う。タッチスクリーンディスプレイ17は、「タッチ」、「移動(スライド)」、「リリース」等のイベントの発生を検出するように構成されている。「タッチ」は、画面上に外部オブジェクトが接触したことを示すイベントである。「移動(スライド)」は、画面上に外部オブジェクトが接触されている間に接触位置が移動されたことを示すイベントである。「リリース」は、画面から外部オブジェクトが離されたことを示すイベントである。
ペン軌跡表示処理部301および時系列データ生成部302は、タッチスクリーンディスプレイ17によって発生される「タッチ」または「移動(スライド)」のイベントを受信し、これによって手書き入力操作を検出する。「タッチ」イベントには、接触位置の座標が含まれている。「移動(スライド)」イベントにも、移動先の接触位置の座標が含まれている。したがって、ペン軌跡表示処理部301および時系列データ生成部302は、タッチスクリーンディスプレイ17から、接触位置の動きの軌跡に対応する座標列を受信することができる。
ペン軌跡表示処理部301は、手書きによって入力される筆跡(1以上のストローク)をタッチスクリーンディスプレイ17の画面上に表示するように構成された表示処理部として機能する。ペン軌跡表示処理部301は、タッチスクリーンディスプレイ17から座標列を受信する。そして、この座標列に基づいて、ペン軌跡表示処理部301は、ペン100等を使用した手書き入力操作によって入力される複数のストロークをタッチスクリーンディスプレイ17内のLCD17Aの画面上に表示する。ペン軌跡表示処理部301は、処理部308の制御の下、ユーザインタフェース(UI)の表示に関する様々な表示制御を実行することができる。
時系列データ生成部302は、タッチスクリーンディスプレイ17から出力される上述の座標列を受信する。この座標列に基づいて、時系列データ生成部302は、上述の複数のストロークに対応する複数のストロークデータ(時系列データ)を生成する。これらストロークデータ、つまり各ストロークの各点に対応する座標および各ストロークのタイムスタンプ情報は作業メモリ401に一時保存してもよい。
ページ保存処理部304は、複数のストロークに対応する複数のストロークデータを含む手書き文書情報(ページ)を記憶媒体402に保存する。記憶媒体402は、上述したように、タブレットコンピュータ10内のストレージデバイス、パーソナルコンピュータ1内のストレージデバイス、サーバ2のストレージデバイスのいずれであってもよい。
ページ取得処理部305は、記憶媒体402から任意の手書き文書情報(ページ)を読み出す。読み出された手書き文書情報は手書き文書表示処理部306に送られる。手書き文書表示処理部306は、手書き文書情報を解析し、この解析結果に基づいて、手書き文書情報内の複数のストロークデータによって示される複数のストロークを画面上に表示する。
編集処理部303は現在表示中のページを編集するための処理を実行する。すなわち、編集処理部303は、タッチスクリーンディスプレイ17上でユーザによって行われる編集操作に応じて、表示されている複数のストローク内の1以上のストロークを削除または移動等するための編集処理を実行する。さらに、編集処理部303は、編集処理の結果を表示中の手書き文書に反映するためにこの手書き文書を更新する。
ユーザは、「消しゴム」ツール等を使用して、表示されている複数のストローク内の任意のストロークを削除することができる。また、ユーザは、画面上の任意の部分を矩形または自由枠によって囲むための「範囲選択」ツールを使用して、表示されている手書きページ内の任意の部分を選択することができる。
処理部308は、上述の自動補完、検索、全コンテンツ一覧表示等の様々な処理を実行することができる。処理部308は、コンテンツ管理部308A、全コンテンツ表示処理部308B、コンテンツ移動処理部308C、ノートカラー管理部308D、等を含む。
コンテンツ管理部308Aは、多数のページ(手書きページ)を管理すると共に、他のアプリケーションのコンテンツもページの管理と同様のレベルで管理する。コンテンツ管理部308Aは、キャッシュフォルダ212からコンテンツを取得し、その取得したコンテンツをUnclassified Note217内のコンテンツとして手書きノートアプリケーションフォルダ214内に保存する。
全コンテンツ表示処理部308Bは、手書きページと他のアプリケーションのコンテンツとを含む全種類のコンテンツの内、ある一定の期間(第1期間)内に作成された複数種のコンテンツを全コンテンツ一覧表示画面上の特定の表示領域に時系列順に表示する。ある一定の期間(第1期間)内に作成された複数種のコンテンツとは、この一定の期間(第1期間)内に属する作成日時(または更新日時)を有するコンテンツの集合を意味する。また、コンテンツを時系列順に表示するとは、作成日時(または更新日時)順にコンテンツが並べられる形態でこれらコンテンツを表示することを意味する。
コンテンツ移動処理部308Cは、ユーザの操作に応じて、ページまたは他のアプリケーションのコンテンツを、ノート(User Created Note215、216、Unclassified Note217)間で移動する。ノートカラー管理部308Dは、ノート(User Created Note215、216、Unclassified Note217)それぞれに色(テーマカラー)を設定する。全コンテンツ一覧表示画面においては、各ページまたはコンテンツは、それが属するノートの色で表示される。
次に、手書きノートアプリケーションプログラム202によって提供される幾つかのユーザインタフェースについて説明する。
図8は、編集画面を示す。
処理部308は、図8に示される編集画面を表示する。編集画面は、4つのエリア、つまりノートブックリスト501、ページリスト502、編集ツールバー503、および編集ビューエリア504を含むユーザインタフェース(UI)である。これらエリア501〜504は、タブレットコンピュータ10の画面の左端から右端に向かって並んでいる。ユーザは、ペン、指、マウス、またはキーボードを使用してユーザインタフェース(UI)を操作することができる。以下では、限定されないが、ペンまたは指を使用した指ジェスチャ(タップ、スワイプ、等)によってUIが操作される場合を主として説明する。
ノートブックリスト501は、手書きノートアプリケーションプログラム202によって管理されているノート(ノートブック)のリストを示す。ノートブックリスト501の上端近傍の「Add Note」アイコン505、「All」アイコン506はコマンドアイコンである。「Add Note」アイコン505がユーザよってタップされると、処理部308は、新たなノートを追加するための処理を実行する。「All」アイコン506がユーザよってタップされると、処理部308は、全てのノート内の全てのコンテンツ(全てのページおよび他のアプリケーションの全てのコンテンツ)に対応するサムネイル画像のリストを全コンテンツ一覧表示画面に表示するための処理を実行する。
「Unclassified pages」アイコン507は、他のアプリケーションのコンテンツ群が登録されるノート(「Unclassified pages」ノート)を示すノートアイコンである。どのユーザ作成ノートにも属さない手書きページ群も「Unclassified pages」ノートに登録されてもよい。
「User Created Note」アイコン群508は、ユーザによって作成されたノートのリストを示す。図8においては、「User Created Note」アイコン群508は、「Research」アイコン、「ideas」アイコン、「presentation」アイコン、「Minutes」アイコン、「ToDo」アイコンを含む。
「Research」アイコンは、ユーザのノート(タイトル名「Research」)を示すノートアイコンである。「ideas」アイコンは、ユーザのノート(タイトル名「ideas」)を示すノートアイコンである。「presentation」アイコンは、ユーザのノート(タイトル名「presentation」)を示すノートアイコンである。「Minutes」アイコンは、ユーザのノート(タイトル名「Minutes」)を示すノートアイコンである。「ToDo」アイコンは、ユーザのノート(タイトル名「ToDo」)を示すノートアイコンである。
これらノートアイコンはドラッグ&ドロップ操作によって再配置することができる。
「Unclassified pages」アイコン507は、「Unclassified pages」ノートに含まれるコンテンツの数を示す数字を表示する。この数字は、「Unclassified pages」ノートに登録された新たなコンテンツの数(他のアプリケーションから取得された新たなコンテンツの数)を表してもよい。ユーザが「Unclassified pages」ノート内のコンテンツを閲覧するために「Unclassified pages」アイコン507を選択した時、この数字の値は、「Unclassified pages」ノートに含まれる全コンテンツの数を表す値に変更されてもよい。「Unclassified pages」ノート内のコンテンツの閲覧が完了した後は、この数字の値は、「Unclassified pages」ノートの直前の閲覧の後に「Unclassified pages」ノートに登録された新たなコンテンツの数を表してもよい。
「User Created Note」アイコン群508の各々は、対応するノートに含まれるコンテンツ(手書きページ)の数を示す数字を表示する。
ページリスト502は、現在選択されているノートアイコンに対応するノート内に含まれるページ(他のアプリケーションのコンテンツも含む)に対応するサムネイルのリストを示す。
ページリスト502内の最も上の「Add Page」アイコン509は、コマンドアイコンである。「Add Page」アイコン509がユーザよってタップされると、処理部308は、編集中のページに新たなページを追加するための処理を実行する。
「Add Page」アイコン509の下側には、複数のページに対応するサムネイルをそれぞれ示す複数のページアイコン531〜534が配置されている。選択されたページアイコンに対応するページ(または他のアプリケーションのコンテンツ)は、編集ビューエリア504に表示される。ユーザは、ページリスト502内の任意のページアイコンを選択することによって、任意のページ(または他のアプリケーションの任意のコンテンツ)を編集ビューエリア504に表示することができる。
編集ツールバー503は、ページ(または他のアプリケーションのコンテンツ)を編集するための幾つかのボタンを含む。「エディット全画面」ボタン511は、編集ビューエリア504を全画面モードで表示するためのボタンである。「エディット全画面」ボタン511がタップされた時、ノートブックリスト501とページリスト502とが画面から消え、編集ビューエリア504が拡大されると共に、編集ツールバー503が画面の左端に移動される。「選択ペン(範囲選択)」ボタン512は、「範囲選択」ツールとして使用される。ユーザは、この「選択ペン」によって編集ビューエリア504上の1以上のオブジェクトを選択することができる。「選択ペン」ボタン512がユーザによってタップされた時、処理部308は、選択タイプ(矩形/自由枠/全選択)を変更するためのメニューを表示する。
「貼り付け」ボタン513は、クリップボードに格納されたオブジェクトを編集中のページにペーストするためのボタンである。「消しゴムペン」ボタン514は、「消しゴム」ツールとして使用される。ユーザは、この「消しゴムペン」によって編集ビューエリア504上の1以上のストロークを消すことができる。「消しゴムペン」ボタン514がユーザによってタップされた時、処理部308は、消しゴムサイズ(大/小/ページ全体)を変更するためのメニューを表示する。
「ストローク入力ペン」ボタン515は、ストロークを描画するために使用される。ユーザは、「ストローク入力ペン」によって筆跡(ストローク)を編集ビューエリア504に描画することができる。「ストローク入力ペン」ボタン515がユーザによってタップされた時、処理部308は、幾つかのプリセットペンを示すメニューを表示する。これらプリセットペンの各々は、例えば、ペンタイプ(万年筆/鉛筆/ボールペン/鉛筆/マーカー/フェルトペン)、幅、色、透明度の組み合わせを定義している。ユーザは、このメニューからペンを選択することができる。
「アンドゥ」ボタン516は、編集操作を取り消すために使用される。「リドゥ」ボタン517は、編集操作をやり直すために使用される。
「サーチ」ボタン518は、上述の筆跡検索、またはテキスト検索を実行するためのボタンである。「カメラ」ボタン519は、写真を撮り、この写真を編集ビューエリア504にインポートするために使用される。「カメラ」ボタン519がタップされた時、処理部308は、キャプチャアプリケーションプログラム203を起動する。ユーザは、キャプチャアプリケーションプログラム203を使用して写真を撮ることができる。キャプチャアプリケーションプログラム203によって撮影及び補正された写真の画像データ(文書画像)は、編集中のページにインポート(貼り付け)される。「プレビュー」ボタン520は、編集中のページを含むノート内のページそれぞれを閲覧可能なプレビューモードに遷移するためのボタンである。「メニューバー」ボタン521は、編集ツールバー503とは異なるメニューを表示するためのボタンである。
編集ビューエリア504は、手書き入力可能な手書き入力エリアである。
図9は、ボイスレコーダアプリケーション204のデータ(コンテンツ)の例を示す。
「Unclassified pages」アイコン507がタップされると、「Unclassified pages」内のページ(コンテンツ)のサムネイル画像がページリスト502に表示される。「Unclassified pages」にあるボイスレコーダアプリケーション204のコンテンツの各々は、音声の録音データのメタデータである。ユーザがボイスレコーダアプリケーション204のコンテンツ(メタデータ)のサムネイル532をタップした時、このコンテンツ(メタデータ)の詳細が編集ビューエリア504に表示される。
メタデータの詳細は、4つのアイテム541〜545を含む。アイテム541は、録音データの種別(ボイスメモ、会議録音、不明、等)に関連づけられたアイコン、録音データのタイトル(「New Product Plan Meeting」)、録音日時(2015.10.10 15:00:00〜16:00:00)、録音データの総時間長(30:26:01)等を示す。アイテム542は、録音データ内の話者のリストを示す。アイテム543は、ユーザによって追加されたテキストを示す。アイテム544は、この録音データをボイスレコーダアプリケーション204で再生することを要求するための再生ボタンである。
図10は、全コンテンツ一覧画面の例を示す。
編集画面上の上述の「All」アイコン506がタップされた時、処理部308は、図10に示される全コンテンツ一覧画面600を表示する。
全コンテンツ一覧画面600においては、手書きページと他のアプリケーションプログラムのコンテンツとを含む全てのコンテンツ621〜623、624〜627、628〜630、…の一覧が表示される。この場合、これらコンテンツのサムネイル画像の一覧が全コンテンツ一覧画面600に表示されてもよい。
これらコンテンツは、古い順または新しい順でソートされる。古い順または新しい順のいずれの場合においても、同じ期間(例えば同じ日)に作成されたコンテンツの集合は、横(行)方向または縦(列)方向のいずれか一方の方向に延びる帯状の表示領域に時系列順(古い順または新しい順)に表示される。
例えば、同じ期間(例えば同じ日)に作成されたコンテンツの集合は、行方向に延びる或る表示領域に時系列順に表示されてもよい。
この場合、コンテンツ621〜623、624〜627、628〜630、…の一覧の表示においては、まず、これらコンテンツは、作成日時の順でソートされ、全コンテンツ一覧画面600上に時系列順に配置される。同じ作成日(または更新日)を有する幾つかのコンテンツは同じ表示領域上の左端から右端に向けて順次配置される。もし次の表示対象のコンテンツの作成日がその一つ前のコンテンツの作成日と異なるならば、次の表示対象のコンテンツが表示されるべき表示領域は、現在の表示領域と並行に延在する次の行の表示領域に変更される。
したがって、異なる期間(例えば異なる日)に作成されたコンテンツ同士が同じ表示領域に表示されることは無い。
これらコンテンツのサムネイル画像は、これらコンテンツの作成日時(または更新日時)を示すタグ領域を含んでもよい。このタグ領域はサムネイル画像の下部に位置してもよい。また、これらコンテンツのサムネイル画像は、対応するノートの色で表示される。例えば、作成日時(または更新日時)を示すタグ領域だけが、対応するノートの色で表示されてもよいし、サムネイル画像全体が対応するノートの色で表示されてもよい。あるいは、あるサムネイル画像が選択された時のみ、そのサムネイル画像の全体が対応するノートの色で強調表示されてもよい。
3つのコンテンツ621〜623は、ある1日(例えば2016.3.15)に作成(または更新)されたコンテンツの集合である。コンテンツ621と623は、ボイスレコーダアプリケーションプログラム204によって作成されたコンテンツである。コンテンツ622は、キャプチャアプリケーションプログラム203によって作成されたコンテンツである。これら3つのコンテンツ621〜623は古い順または新しい順に横方向に並べられる。一つの表示領域に表示可能な最大コンテンツ数は例えば4である。同じ日(例えば2016.3.15)に作成(または更新)されたコンテンツの総数が6である場合には、これらコンテンツの中の5番目のコンテンツと6番目のコンテンツは、次の行の表示領域の左端から順に表示されてもよい。
4つのコンテンツ624〜627は、別の1日(例えば2016.3.10)に作成(または更新)されたコンテンツの集合である。コンテンツ624は、ボイスレコーダアプリケーションプログラム204によって作成されたコンテンツである。コンテンツ625と627は、手書きノートアプリケーションプログラム20によって作成されたコンテンツ(手書きページ)である。コンテンツ626は、ボイスレコーダアプリケーションプログラム204によって作成されたコンテンツである。これら4つのコンテンツ624〜627は古い順または新しい順に横方向に並べられる。
コンテンツ628〜630も、さらに別の1日に作成(または更新)されたコンテンツの集合である。
全コンテンツ一覧画面600は縦方向にスクロールすることができる。
全コンテンツ一覧画面600においては、複数種のアプリケーションプログラムのコンテンツの内、同じ期間(例えば同じ日)に作成(または更新)されたコンテンツが同じ表示領域に時系列順に表示される。したがって、時間的関連性の高いコンテンツ同士は、同じ表示領域内に隣接して配置される。
上述したように、会議のようなビジネスシーンにおいては、ユーザは、手書きによってメモを取りながら、会議の音声を録音したり、紙資料またはホワイトボードの画像をキャプチャする場合がある。通常、手書きページ、音声の録音データ、写真(画像データ)は異なるアプリケーションによって個別に管理される。本実施形態では、手書きノートアプリケーションプログラム202は、手書きページのみならず、これら手書きページ、音声の録音データ、写真(画像データ)を含む全てのコンテンツを管理でき、且つ同じ期間内に作成されたコンテンツ群を同じ表示領域に時系列順に表示できる。よって、手書きページ、音声の録音データ、写真(画像データ)間の関連性をユーザに分かりやすく提示することができる。
全コンテンツ一覧画面600は、さらに、「フィルタリング」ボタン群601、「サーチ」ボタン608、「メニューバー」ボタン609、「リターン」ボタン610、「月ジャンプ」プルダウンメニュー611、「ALL」プルダウンメニュー612、「ソート」プルダウンメニュー613を表示する。
「フィルタリング」ボタン群601は、「ALLフィルタリング」ボタン601A、「Noteフィルタリング」ボタン601B、「Clipperフィルタリング」ボタン601C、「Captureフィルタリング」ボタン601D、「Recoderフィルタリング」ボタン601E、「Collabolationフィルタリング」ボタン601Fを含む。
「ALLフィルタリング」ボタン601Aは、複数種のアプリケーション(ここでは、手書きノートアプリケーションプログラム202、キャプチャアプリケーションプログラム203、ボイスレコーダアプリケーションプログラム204、クリッパーアプリケーションプログラム205、およびコラボレーションアプリケーションプログラム206)の全ての種類のコンテンツの一覧を表示するためのボタンである。初期状態においては、「ALLフィルタリング」ボタン601Aが有効状態に設定される。
「Noteフィルタリング」ボタン601Bは、手書きノートアプリケーションプログラム202によって作成された手書きページの一覧のみを全コンテンツ一覧画面600に表示するためのボタンである。「Noteフィルタリング」ボタン601Bがユーザによってタップされた時、処理部308は、全てのコンテンツから手書きノートアプリケーションプログラム202によって作成された手書きページを抽出し、手書きノートアプリケーションプログラム202によって作成された手書きページの一覧のみを全コンテンツ一覧画面600に表示する。同じ日に作成(または更新)された手書きページ群は、同じ表示領域に時系列順に表示される。
例えば、図15に示されているように、2016.3.10に作成されたコンテンツ624〜627が同じ一つの表示領域(表示行)に表示されている状態で、「Noteフィルタリング」ボタン601Bのタップによって手書きノートアプリケーションプログラム202がユーザによって選択されたならば、処理部308は、コンテンツ624〜627の内、手書きページのコンテンツ625、627のみをこの表示領域の左端から表示する。
「Clipperフィルタリング」ボタン601Cは、クリッパーアプリケーションプログラム205によって作成されたコンテンツの一覧のみを全コンテンツ一覧画面600に表示するためのボタンである。「Clipperフィルタリング」ボタン601Cがユーザによってタップされた時、処理部308は、全てのコンテンツからクリッパーアプリケーションプログラム205によって作成されたコンテンツを抽出し、クリッパーアプリケーションプログラム205によって作成されたコンテンツの一覧のみを全コンテンツ一覧画面600に表示する。同じ日に作成(または更新)されたクリッパーアプリケーションプログラム205のコンテンツ群は、同じ表示領域に時系列順に表示される。
「Captureフィルタリング」ボタン601Dは、キャプチャアプリケーションプログラム203によって作成されたコンテンツの一覧のみを全コンテンツ一覧画面600に表示するためのボタンである。「Captureフィルタリング」ボタン601Dがユーザによってタップされた時、処理部308は、全てのコンテンツからキャプチャアプリケーションプログラム203によって作成されたコンテンツを抽出し、キャプチャアプリケーションプログラム203によって作成されたコンテンツの一覧のみを全コンテンツ一覧画面600に表示する。同じ日に作成(または更新)されたキャプチャアプリケーションプログラム203のコンテンツ群は、同じ表示領域に時系列順に表示される。
「Recoderフィルタリング」ボタン601Eは、ボイスレコーダアプリケーションプログラム204によって作成されたコンテンツの一覧のみを全コンテンツ一覧画面600に表示するためのボタンである。「Recoderフィルタリング」ボタン601Eがユーザによってタップされた時、処理部308は、全てのコンテンツからボイスレコーダアプリケーションプログラム204によって作成されたコンテンツを抽出し、ボイスレコーダアプリケーションプログラム204によって作成されたコンテンツの一覧のみを全コンテンツ一覧画面600に表示する。同じ日に作成(または更新)されたボイスレコーダアプリケーションプログラム204のコンテンツ群は、同じ表示領域に時系列順に表示される。
「Collabolationフィルタリング」ボタン601Fがユーザによってタップされた時、処理部308は、コラボレーションアプリケーションプログラム206によって作成されたコンテンツの一覧のみを全コンテンツ一覧画面600に表示する。同じ日に作成(または更新)されたコラボレーションアプリケーションプログラム206のコンテンツ群は、同じ表示領域に時系列順に表示される。
「サーチ」ボタン608は、検索キーにマッチするコンテンツを求めて、手書きページと他のアプリケーションプログラムのコンテンツとを含む全てのコンテンツを検索するためのボタンである。「メニューバー」ボタン609は、全コンテンツ一覧画面600上の任意のコンテンツを「削除」、「移動」等するためのメニューを表示するためのボタンである。「リターン」ボタン610は、編集画面に戻るためのボタンである。
「月ジャンプ」プルダウンメニュー611は、全コンテンツ一覧画面600上に表示されるべきコンテンツリスト部分を、指定された「月」に対応するリスト部分にジャンプするためのプルダウンメニューである。「ALL」プルダウンメニュー612は、全コンテンツ一覧画面600上に表示されるべきコンテンツを、任意の一つ以上のノートに含まれるコンテンツのみに制限するためのプルダウンメニューである。「ソート」プルダウンメニュー613は、全コンテンツ一覧画面600上に表示されるコンテンツのソート順を変更するためのプルダウンメニューである。デフォルトのソート順は作成日時であってもよい。ユーザは、ソート順を更新日時に変更することができる。
図11は、全コンテンツ一覧画面600上に表示される月リスト701の例を示す。
月リスト701は、「月ジャンプ」プルダウンメニュー611がタップされた時に全コンテンツ一覧画面600上に表示される(ポップアップ)。ユーザは月リスト701をスクロールすることができる。月リスト701においては、月毎に、コンテンツの総数が表示される。ユーザが月リスト701上のある月をタップした時、全コンテンツ一覧画面600上に表示されるべきコンテンツリスト部分は、タップされた月に対応するリスト部分にジャンプし、月リスト701は消える。月リスト701の外側がタップされた時も、月リスト701は消える。
図12は、図11の月リストを利用して実行される月ジャンプ動作の例を示す。
「月ジャンプ」プルダウンメニュー611がタップされた時、処理部308は、「月ジャンプ」プルダウンメニュー611をオープンして「月ジャンプ」プルダウンメニュー611を上下方向に拡大する。拡大された「月ジャンプ」プルダウンメニュー611が月リスト701として表示される。月リスト701は、現在選択されている月(March 2016)に加え、現在選択されている月の後の2つの月と、現在選択されている月の前の4つの月とを表示してもよい。ユーザが月リスト701上のある月(Februaly)をタップすると、処理部308は、この月(Februaly)を選択し、全コンテンツ一覧画面600上に表示されるべきコンテンツリスト部分を、March 2016に対応するコンテンツリスト部分からFebrualy 2016に対応するコンテンツリスト部分に変更する。そして、処理部308は、「月ジャンプ」プルダウンメニュー611を元のサイズに変更し、「月ジャンプ」プルダウンメニュー611上に表示される文字列を「Februaly 2016」に変更する。
図13は、全コンテンツ一覧画面600上に表示されるノートフィルター704の例を示す。
ノートフィルター704は、「ALL」プルダウンメニュー612がタップされた時に全コンテンツ一覧画面600上に表示される(ポップアップ)。ノートフィルター704は、全てのノートのリストを表示する。ユーザがあるノートを選択すると、処理部306は、全てのコンテンツから、選択されたノートに含まれるコンテンツのみを抽出し、抽出されたコンテンツだけを全コンテンツ一覧画面600上に表示する。
図14は、全コンテンツ一覧画面600上に表示されるソートメニュー705の例を示す。
ソートメニュー705は、「ソート」プルダウンメニュー613がタップされた時に全コンテンツ一覧画面600上に表示される(ポップアップ)。ソートメニュー705においては、更新日(Modified date)に関する2つのソート順「Newer」、「older」と、作成日(Created date)に関する2つのソート順「Newer」、「older」とを表示する。
Modified date(Newer)が選択された場合、直近に更新されたコンテンツがコンテンツリストの左上端に表れる。Modified date(older)が選択された場合、最も以前に更新されたコンテンツがコンテンツリストの左上端に表れる。Created date(Newer)が選択された場合、直近に作成されたコンテンツがコンテンツリストの左上端に表れる。Created date(older)が選択された場合、最も以前に作成されたコンテンツがコンテンツリストの左上端に表れる。
現在適用されているソート順と異なるソート順がユーザによって選択された時、処理部308は、現在適用されているソート順を、選択されたソート順に変更する。
図15は、全コンテンツ一覧画面600上に表示されるメニュー640の例を示す。
例えば、全コンテンツ一覧画面600上のあるコンテンツがユーザによってロングタップされた時、処理部308は、このコンテンツを選択すると共に、メニュー640を全コンテンツ一覧画面600上に表示する(ポップアップ)。図15では、コンテンツ621がロングタップによって選択された場合が想定されている。コンテンツ621のサムネイル画像は強調表示される。例えば、このサムネイル画像を囲む枠が表示されてもよい。
メニュー640は、ムーブボタン641、削除ボタン642、設定ボタン643を表示する。ムーブボタン641は、選択されたコンテンツをユーザによって指定されたノートに移動するためのボタンである。削除ボタン642は、選択されたコンテンツを削除するためのボタンである。
ムーブボタン641がユーザによってタップされた時、処理部308は、図16に示すように、選択ノートリスト650を全コンテンツ一覧画面600上に表示する。選択ノートリスト650は、全てのノートのリストを表示する。ユーザによって選択ノートリスト650上のあるノート(移動先ノート)が選択されると、処理部308は、選択ノートリスト650上のこのノート表示部分を、このノートの色で強調表示する。そして、処理部308は、選択されたコンテンツを、選択されたノートに移動する。例えば、コンテンツ621が選択されており、移動先のノートとしてユーザ作成ノート(例えば、「ノート2」)が選択された場合には、コンテンツ621は、Unclassified Noteからユーザ作成ノート(例えば、「ノート2」)に移動される。そして、処理部308は、図17に示すように、コンテンツ621のサムネイル画像を、「ノート2」に対応する色で表示する。換言すれば、コンテンツ621のサムネイル画像の色は、Unclassified Noteの色から、「ノート2」の色に変更される。この場合、例えば、コンテンツ621のサムネイル画像のタグ領域の色だけが、Unclassified Noteの色から、「ノート2」の色に変更されてもよい。
次に、図18〜図21を参照して、全コンテンツ一覧画面600上のコンテンツの一つを編集する動作を説明する。
ここでは、キャプチャアプリケーションプログラム203によって作成されたコンテンツ626に手書きストロークを加える場合を想定する。
全コンテンツ一覧画面600上のコンテンツ626がユーザによってタップされた時、図18に示すように、処理部308は、コンテンツ626を選択する。そして、処理部308は、図19に示されるプレビュー画面800を表示する。
プレビュー画面800は、ユーザがコンテンツをフルスクリーン上で見ることを可能にする。コンテンツ626はプレビュー画面800上に拡大されたサイズで表示される。また、ユーザは、プレビュー画面800上の指ジェスチャ(スワイプ)、または矢印ボタン813Aまたは813Bのタップによって、コンテンツを前方または後方に移動することができる。プレビュー画面800に表示されるコンテンツは、全コンテンツ一覧画面600上のコンテンツリストの並び順と同じ順序で変更される。また、ユーザは、プレビュー画面800上に表示されている編集ボタン810をタップすることよって編集モードを有効にでき、またプレビュー画面800上に表示されている削除ボタン811をタップすることよって現在プレビューされているコンテンツを削除することもできる。また、ユーザは、プレビュー画面800上に表示されている戻るボタン814をタップすることによって、全コンテンツ一覧画面600に戻ることもできる。
例えばコンテンツ626がプレビュー画面800に表示されている状態で編集ボタン810がユーザによってタップされた時、処理部308は、図20に示すように、編集画面を表示し、編集ビューエリア504にコンテンツ626を表示する。ユーザは、手書きによってストロークをコンテンツ626上に描画することができる。すなわち、処理部308は、ユーザの手書き入力操作に基づいて、コンテンツ626に手書きストローク(例えば手書きストローク820)を書き込んでコンテンツ626を編集する。編集されたコンテンツ626は自動的に保存されてもよい。
もしコンテンツ626の編集後にユーザか全コンテンツ一覧画面600の表示を要求したならば、手書きストロークを含むコンテンツ626のサムネイル画像が全コンテンツ一覧画面600のコンテンツリスト上に表れる。
ソート順がodified date(Newer)である場合には、図21に示すように、手書きストロークが反映されたコンテンツ626のサムネイル画像が、全コンテンツ一覧画面600のコンテンツリストの左上端に表示される。
図22は、編集画面上に表示される編集ツールバーの例を示す。
編集ツールバー503の「メニューバー」ボタン521がユーザによってタップされた時、編集ツールバー503は、横方向に拡大され、図8に示した編集メニューとは異なるメニューを表示する。
この編集ツールバー503は、ノート操作部830、ページ操作部831、オプション設定部832、「メニューバー」ボタン521、「キャプチャアプリケーションプログラム」ボタン871、「コラボレーションアプリケーションプログラム」ボタン872、「ボイスレコーダアプリケーションプログラム」ボタン873、「クリッパーアプリケーションプログラム」ボタン874を含む。
ノート操作部830は、「エクスポート」ボタン841、「セーブ」ボタン842、「インサート」ボタン853、「デリート」ボタン844、「ノートブック・プロパティ」ボタン845を含む。
ページ操作部831は、「セーブ」ボタン851、「インサート」ボタン852、「印刷」ボタン853、「ピン」ボタン854、「ムーブ」ボタン855、「デリート」ボタン856、「テンプレート」ボタン857を含む。
オプション設定部832は、「ヘルプ」ボタン861、「セッティング」ボタン862、「アッド・カスタマイズ・ページ」ボタン863を含む。
「キャプチャアプリケーションプログラム」ボタン871は、キャプチャアプリケーションプログラム203を起動するためのボタンである。「キャプチャアプリケーションプログラム」ボタン871がユーザによってタップされた時、処理部308は、キャプチャアプリケーションプログラム203を起動する。キャプチャアプリケーションプログラム203によって撮影された画像データ(コンテンツ)は編集ビューエリア504にインポート(貼り付け)される。
「コラボレーションアプリケーションプログラム」ボタン872は、コラボレーションアプリケーションプログラム206を起動するためのボタンである。「コラボレーションアプリケーションプログラム」ボタン872がユーザによってタップされた時、処理部308は、コラボレーションアプリケーションプログラム206を起動する。
「ボイスレコーダアプリケーションプログラム」ボタン873は、ボイスレコーダアプリケーションプログラム204を起動するためのボタンである。「ボイスレコーダアプリケーションプログラム」ボタン873がユーザによってタップされた時、処理部308は、ボイスレコーダアプリケーションプログラム204を起動する。
「クリッパーアプリケーションプログラム」ボタン874は、クリッパーアプリケーションプログラム205を起動するためのボタンである。「クリッパーアプリケーションプログラム」ボタン874がユーザによってタップされた時、処理部308は、クリッパーアプリケーションプログラム205を起動する。
図23は、追加ノート処理時またノートプロパティ変更処理時に編集画面上に表示されるノートプロパティ設定画面の例を示す。
ノートプロパティ設定画面900は、ページ向き設定部901、ページテンプレート設定部902、ノートカラー設定部903、ノート名入力部904、「キーボード」ボタン905、「OK」ボタン906を含む。
ページ向き設定部901は、縦長のページの向きを示す「ポートレート」アイコンと、横長のページの向きを示す「ランドスケープ」アイコンとを含む。「ポートレート」アイコンがユーザによってタップされた時、処理部308は、縦長のページ(ポートレートページ)を選択する。「ランドスケープ」アイコンがユーザによってタップされた時、処理部308は、横長のページ(ランドスケープページ)を選択する。
ページテンプレート設定部902は、罫線の有無、罫線の種類、背景画像の有無、背景色等の組み合わせによって定義される複数種のページテンプレートに対応する複数のテンプレートアイコンを含む。ユーザによって任意のテンプレートアイコンがタップされた時、処理部308は、ユーザにタップされたテンプレートアイコンに対応するページテンプレートを選択する。
ノートカラー設定部903は、ノートカラーに用いられる複数の「色」アイコンを含む。通常は、先頭の「色」アイコンに対応するノートカラーが自動的に選択される。「色」アイコンの並び順は、あるノートのノートカラーが設定される度に変更される。例えば、先頭の「色」アイコンは、「色」アイコンの並びの末尾に移動し、2番目以降の色アイコンそれぞれが先頭に向けて左側に一つずつ移動する。
ユーザが「色」アイコンの一つを選択することもできる。すなわち、ユーザによって任意の「色」アイコンがタップされた時、処理部308は、ユーザによってタップされた「色」アイコンに対応するノートカラーを選択する。
ノート名入力部904は、手書き入力可能な手書き入力エリアである。ユーザは、ノート名入力部904に文字列(ノート名)を手書き入力することができる。
「キーボード」ボタン905は、ソフトウエアキーボードを表示するためのボタンである。「キーボード」ボタン905がユーザによってタップされた時、処理部308は、ソフトウエアキーボードを表示する。ユーザは、ソフトウエアキーボードを用いてノート名の文字列を入力することができる。
「OK」ボタン906がユーザによってタップされた時、処理部308は、ページ向き設定部901、ページテンプレート設定部902、ノートカラー設定部903、ノート名入力部904等で、それぞれ設定された設定内容に基づいて、ノートの追加又は既存のノートプロパティの変更を行う。
図24は、追加ノート処理後に処理部308によって表示される編集画面の例を示す。
タイトル名「Note7」のノートが追加された場合には、ノートブックリスト501にノートアイコン(タイトル名「Note7」)が追加される。このノートアイコン(タイトル名「Note7」)がユーザによってタップされた時、このノートアイコンは、「Note7」の色で強調表示され、そしてタイトル名「Note7」のノートに含まれる新規ページのサムネイル画像がページリスト502に表示される。このサムネイル画像も、「Note7」の色で表示されてもよい。また、編集ツールバー503の背景も、「Note7」の色で表示されてもよい。
図25は、全コンテンツ一覧画面600上に表示される検索画面910の例を示す。
検索画面910は、全コンテンツ一覧画面600上の「サーチ」ボタン608がユーザによってタップされた時に表示される。
検索画面910は、検索キー入力エリア911と筆跡候補エリア912とを含む。ユーザによって検索キー入力エリア911にストローク(仮ストローク)が手書きによって入力された時、自動補完機能によって幾つかの筆跡候補が筆跡候補エリア912に表示される。筆跡候補の一つがユーザによって選択された時、選択された筆跡候補が検索キー入力エリア911に表示される。
手書き文字列、手書きマーク、手書き図形のような筆跡が検索キー入力エリア911に入力されている状態で「OK」ボタン914がユーザによってタップされた時、処理部308は、検索キーである筆跡(クエリーストローク)にマッチする筆跡を含むコンテンツまたはクエリーストロークに対応する文字列(テキスト)を含むコンテンツを求めて、手書きページと他のアプリケーションプログラムのコンテンツとを含む全てのコンテンツを検索する。したがって、複数種のアプリケーションの複数種のコンテンツの検索を、手書きノートアプリケーションプログラム202の全コンテンツ一覧画面600上で横断的に実行することができる。
検索画面910は「キーボード」ボタン913も表示する。「キーボード」ボタン913がユーザによってタップされた時、ソフトウエアキーボードが表示される。ユーザは、ソフトウエアキーボードを操作することにより、文字列(テキスト)を検索キーとして入力することができる。この場合、処理部308は、この文字列(テキスト)を含むコンテンツを求めて、手書きページと他のアプリケーションプログラムのコンテンツとを含む全てのコンテンツを検索する(テキスト検索)。各手書きページは、その中の個々の手書き文字列の文字認識結果を含んでいてもよい。これにより、テキスト検索においても、検索キーであるテキストに対応する手書き文字列を、手書きページそれぞれから見つけることができる。
図26は、全コンテンツ一覧画面600上に表示される検索結果画面920の例を示す。
ここでは、手書き文字列「TOSHI」が検索キーとして使用された場合が想定されている。手書き文字列「TOSHI」を含む手書きページの各々においては、ヒットワードである手書き文字列「TOSHI」がハイライトされる。また、手書き文字列「TOSHI」に対応するテキストを含む幾つかのコンテンツがある場合には、これらコンテンツ内の各ヒットワードもハイライトされる。
なお、検索結果画面920においては、手書きページと他のアプリケーションプログラムのコンテンツとを含む全てのコンテンツの内、ヒットワード(手書き文字列またはテキスト)を含むコンテンツだけが表示されてもよい。
図27のフローチャートは、手書きノートアプリケーションプログラム202がタブレット10によって実行された時にCPU101によって実行される編集画面/全コンテンツ一覧画面表示処理の手順を示す。
手書きノートアプリケーションプログラム202が起動された時または手書きノートアプリケーションプログラム202が非アクティブ状態からアクティブ状態に遷移した時(ステップS11のYES)、CPU101は、キャッシュ212から他の各アプリケーションのコンテンツ(データファイル)を取得する(ステップS12)。なお、あるアプリケーションプログラムがアクティブ状態であるとは、このアプリケーションプログラムがフォアグラウンドに移行していること、換言すればこのアプリケーションプログラムが起動されており且つフォーカスされていることを意味する。
そして、CPU101は、取得したコンテンツを、Unclassified Note217内のコンテンツとして手書きノートアプリケーションフォルダ214内に保存する(ステップS13)。
CPU101は、上述の編集画面をLCD17Aの画面上に表示する(ステップS14)。「All」アイコン506を操作するためのユーザ入力(例えばタップ操作)が検出された時(ステップS15のYES)、CPU101は、全コンテンツ一覧画面600をLCD17Aの画面上に表示するためのコンテンツ一覧表示処理を実行する(ステップS16)。
図28のフローチャートは、コンテンツ一覧表示処理の手順を示す。
CPU101は、手書きノートアプリケーションフォルダ214内の全てのコンテンツ、つまり手書きページと他のアプリケーションプログラムのコンテンツとを含む全てのコンテンツを、取得する(ステップS21)。CPU101は、これら全てのコンテンツを作成日時の順でソートする。
CPU101は、直近の日または最も古い日に作成されたコンテンツが現在の表示領域(ここでは、全コンテンツ一覧画面600の最も上の表示領域)に時系列順に並ぶようにこれらコンテンツを現在の表示領域(表示行)に表示する(ステップS23)。これらコンテンツの各々は、それらコンテンツが属するノートの色(ノートカラー)で表示される。
次の表示対象のコンテンツの作成日が現在の表示領域に表示されたコンテンツ群の作成日と異なる場合(ステップS24のYES)、または現在の表示領域に表示されたコンテンツの数が一つの表示領域当たりの最大表示可能コンテンツ数に達した場合(ステップS25のYES)、CPU101は、次の表示対象のコンテンツが表示されるべき表示領域を、次の行の表示領域に変更する(ステップS26)。
このコンテンツ一覧表示処理により、手書きページ、音声の録音データ、写真(画像データ)等を含む複数種のコンテンツの内、同じ期間(例えば同じ1日)内に作成された複数種のコンテンツを互いに近接した位置に表示することができる。
図29のフローチャートは、フィルタリング処理の手順を示す。
図10の全コンテンツ一覧画面600上の「Noteフィルタリング」ボタン601B、「Clipperフィルタリング」ボタン601C、「Captureフィルタリング」ボタン601D、「Recoderフィルタリング」ボタン601E、または「Collabolationフィルタリング」ボタン601Fのいずれかを操作するためのユーザ入力(タップ操作)が検出された時(ステップS31のYES)、CPU101は、手書きページと他のアプリケーションプログラムのコンテンツとを含む全てのコンテンツから、選択されたボタンに対応するアプリケーションのコンテンツのみを抽出する(ステップS32)。そして、CPU101は、抽出されたコンテンツの一覧を全コンテンツ一覧画面600上に表示するためのコンテンツ一覧表示処理を実行する(ステップS33)。ステップS33では、抽出されたコンテンツの内、ある同じ日に作成されたコンテンツだけが、同じ一つの表示領域に時系列順に表示される。
図30のフローチャートは、削除/ムーブ処理の手順を示す。
全コンテンツ一覧画面600上のあるコンテンツを選択するユーザ操作(例えばコンテンツの長押し)が検出された時(ステップS41のYES)、CPU101は、図15で説明したメニュー640を全コンテンツ一覧画面600上に表示する(ステップS41)。
メニュー640内のムーブボタン641を操作するためのユーザ入力(タップ操作)が検出された時(ステップS43のYES)、CPU101は、図16で説明した選択ノートリスト650を全コンテンツ一覧画面600上に表示する(ステップS46)。選択ノートリスト650内のあるノートがユーザによって選択された時(ステップS47のYES)、CPU101は、選択されたコンテンツを、選択されたノートに移動する(ステップS48)。
メニュー640内の削除ボタン642を操作するためのユーザ入力(タップ操作)が検出された時(ステップS44のYES)、CPU101は、選択されたコンテンツを削除する(ステップS45)。
図31のフローチャートは、プレビュー/編集処理の手順を示す。
全コンテンツ一覧画面600上のあるコンテンツを選択するユーザ操作(タップ)が検出された時(ステップS51のYES)、CPU101は、プレビューモードに入り、図19で説明したプレビュー画面800を表示する(ステップS51)。プレビュー画面800では、選択されたコンテンツがフルスクリーンで表示される。
ページフォワードまたはページバックのためのユーザ操作(スワイプ、矢印ボタンの操作)が検出された時(ステップS53)、CPU101は、プレビュー画面800に表示されるべきコンテンツを次のコンテンツまたは前のコンテンツに変更する(ステップS54)。
プレビュー画面800上の編集ボタン810を操作するためのユーザ入力(タップ)が検出された時(ステップS55のYES)、CPU101は、編集画面を表示し、プレビュー画面800に現在表示されているコンテンツを、編集画面内の編集ビューエリア504に表示する(ステップS56)。ステップS56においては、CPU101は、ユーザの手書き入力操作に基づいて、編集ビューエリア504上のコンテンツに手書きストロークを書き込んでこのコンテンツを編集する。
以上説明したように、本実施形態においては、複数種のアプリケーションプログラムによって作成された複数種のコンテンツが手書きノートアプリケーションプログラム202によって管理され、これら複数種のコンテンツの内、ある第1期間内に作成された複数種のコンテンツだけが画面上のある一つの表示領域(第1表示領域)に時系列順に表示される。例えば、第1期間内に手書きノートアプリケーションプログラム202によって作成された一つ以上のコンテンツとこの第1期間内に別の一つ以上のアプリケーションプログラムによって作成された一つ以上のコンテンツとが第1表示領域に時系列順に表示される。したがって、例えば、同じ会議に関する手書きページ、音声データの録音、ホワイトボード/紙資料の画像データを、互いに近接した場所に表示できるので、複数種のアプリケーションプログラムによって作成された複数種のコンテンツ間の関連性をユーザに分かりやすく提示することができる。
なお、本実施形態では、手書きノートアプリケーションプログラム202が全コンテンツ一覧表示機能を有している場合を説明したが、手書きノートアプリケーションプログラム202以外の他のアプリケーションプログラム、例えば、キャプチャアプリケーションプログラム203、ボイスレコーダアプリケーションプログラム204、クリッパーアプリケーションプログラム205、またはコラボレーションアプリケーションプログラム206が、全コンテンツ一覧表示機能を有していてもよい。
なお、本実施形態に記載された様々な機能の各々は、処理回路によって実現されてもよい。処理回路の例には、中央処理装置(CPU)のような、プログラムされたプロセッサが含まれる。このプロセッサは、メモリに格納されたコンピュータプログラム(命令群)を実行することによって、記載された機能それぞれを実行する。このプロセッサは、電気回路を含むマイクロプロセッサであってもよい。処理回路の例には、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、マイクロコントローラ、コントローラ、他の電気回路部品も含まれる。本実施形態に記載されたCPU以外の他のコンポーネントの各々もまた処理回路によって実現されてもよい。
また、本実施形態の各種処理はコンピュータプログラムによって実現することができるので、このコンピュータプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じてこのコンピュータプログラムをコンピュータにインストールして実行するだけで、本実施形態と同様の効果を容易に実現することができる。
このコンピュータプログラムがインストールされたコンピュータ内のCPUは上述の全コンテンツ一覧表示の処理を実行するように構成されたプロセッサとして機能し得る。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
実施形態によれば、電子機器は、ディスプレイと、処理手段とを具備する。前記処理手段は、第1アプリケーションによって第1期間内に作成された第1コンテンツと、前記第1アプリケーションとは異なる第2アプリケーションによって前記第1期間内に作成された第2コンテンツと、前記第1アプリケーションによって前記第1期間に続く第2期間内に作成された第3コンテンツと、前記第2アプリケーションによって前記第2期間内に作成された第4コンテンツとを記憶する記憶媒体にアクセス可能であって、前記第1コンテンツの第1サムネイルと、前記第2コンテンツの第2サムネイルと、前記第3コンテンツの第3サムネイルと、前記第4コンテンツの第4サムネイルとを前記ディスプレイ上に表示する。前記第1アプリケーションは、筆跡を入力するためのアプリケーション、画像を撮影するためのアプリケーション、音声を録音するためのアプリケーション、文書の一部をクリップするためのアプリケーションのいずれかであって、前記第2アプリケーションは、前記第1アプリケーションと異なるアプリケーションであり、前記筆跡を入力するためのアプリケーション、前記画像を撮影するためのアプリケーション、前記音声を録音するためのアプリケーション、前記文書の一部をクリップするためのアプリケーションのいずれかである。前記第1サムネイル、前記第2サムネイル、前記第3サムネイル、および前記第4サムネイルは、互いに直交する第1方向と第2方向へ二次元状に配置され、かつ前記第1方向に時系列順に配置されるものであって、前記第1サムネイルと前記第2サムネイルの双方は、前記第1方向における第1位置に対応して配置され、前記第3サムネイルと前記第4サムネイルの双方は、前記第1方向における前記第1位置の隣の第2位置に対応して配置され、前記第1サムネイルと前記第2サムネイルは、前記第2方向に沿って配置され、前記第3サムネイルと前記第4サムネイルは、前記第2方向に沿って配置される。
実施形態によれば、電子機器は、ディスプレイと、処理手段とを具備する。前記処理手段は、第1アプリケーションによって第1期間内に作成された第1コンテンツと、前記第1アプリケーションとは異なる第2アプリケーションによって前記第1期間内に作成された第2コンテンツと、前記第1アプリケーションによって前記第1期間に続く第2期間内に作成された第3コンテンツと、前記第2アプリケーションによって前記第2期間内に作成された第4コンテンツとを記憶する記憶媒体にアクセス可能であって、前記第1コンテンツの第1サムネイルと、前記第2コンテンツの第2サムネイルと、前記第3コンテンツの第3サムネイルと、前記第4コンテンツの第4サムネイルとを前記ディスプレイ上に表示する。前記第1アプリケーションは、筆跡を入力するためのアプリケーション、画像を撮影するためのアプリケーション、音声を録音するためのアプリケーション、文書の一部をクリップするためのアプリケーションのいずれかであって、前記第2アプリケーションは、前記第1アプリケーションと異なるアプリケーションであり、前記筆跡を入力するためのアプリケーション、前記画像を撮影するためのアプリケーション、前記音声を録音するためのアプリケーション、前記文書の一部をクリップするためのアプリケーションのいずれかである。前記第1サムネイル、前記第2サムネイル、前記第3サムネイル、および前記第4サムネイルは、互いに直交する第1方向と第2方向へ二次元状に配置され、かつ前記第1方向に時系列順に配置されるものであって、前記第1サムネイルと前記第2サムネイルの双方は、前記第1方向における第1位置に対応して配置され、前記第3サムネイルと前記第4サムネイルの双方は、前記第1方向における前記第1位置の隣の第2位置に対応して配置され、前記第1サムネイルと前記第2サムネイルは、前記第2方向に沿って配置され、前記第3サムネイルと前記第4サムネイルは、前記第2方向に沿って配置される。前記第2アプリケーションは、前記第2コンテンツおよび前記第4コンテンツを前記記憶媒体に保存する機能と、前記第1アプリケーションおよび前記第2アプリケーションによって共有される、前記記憶媒体内の所定の記憶領域に、前記第2コンテンツの複製および前記第4コンテンツの複製を保存する機能とを有し、前記第1アプリケーションは、前記所定の記憶領域に保存された各複製を取得することによって前記第2アプリケーションから前記第2コンテンツと前記第4コンテンツとを取得する機能と、前記第1サムネイル、前記第2サムネイル、前記第3サムネイル、および前記第4サムネイルを二次元状に配置して表示する機能とを有する。
実施形態によれば、電子機器は、ディスプレイと、処理手段とを具備する。前記処理手段は、第1アプリケーションによって第1期間内に作成された第1コンテンツと、前記第1アプリケーションとは異なる第2アプリケーションによって前記第1期間内に作成された第2コンテンツと、前記第1アプリケーションによって前記第1期間に続く第2期間内に作成された第3コンテンツと、前記第2アプリケーションによって前記第2期間内に作成された第4コンテンツとを記憶する記憶媒体にアクセス可能であって、前記第1アプリケーションに基づいて前記第1コンテンツの第1サムネイルと、前記第2コンテンツの第2サムネイルと、前記第3コンテンツの第3サムネイルと、前記第4コンテンツの第4サムネイルとを前記ディスプレイ上に表示する。前記第1アプリケーションは、筆跡を入力するためのアプリケーション、画像を撮影するためのアプリケーション、音声を録音するためのアプリケーション、文書の一部をクリップするためのアプリケーションのいずれかであって、前記第2アプリケーションと連携する機能を有し、前記第2アプリケーションは、前記第1アプリケーションと異なるアプリケーションであり、前記筆跡を入力するためのアプリケーション、前記画像を撮影するためのアプリケーション、前記音声を録音するためのアプリケーション、前記文書の一部をクリップするためのアプリケーションのいずれかである。前記第1サムネイル、前記第2サムネイル、前記第3サムネイル、および前記第4サムネイルは、互いに直交する第1方向と第2方向へ二次元状に配置され、かつ前記第1方向に時系列順に配置されるものであって、前記第1サムネイルと前記第2サムネイルの双方は、前記第1方向における第1表示領域に対応して配置され、前記第3サムネイルと前記第4サムネイルの双方は、前記第1方向における前記第1表示領域の隣の第2表示領域に対応して配置され、前記第1サムネイルと前記第2サムネイルは、前記第2方向に沿って配置され、前記第3サムネイルと前記第4サムネイルは、前記第2方向に沿って配置される。前記第2アプリケーションは、前記第2コンテンツおよび前記第4コンテンツを前記記憶媒体内の前記第2アプリケーション用の記憶領域に保存すると共に、前記第1アプリケーションおよび前記第2アプリケーションによって共有され前記記憶媒体内の所定の記憶領域に、前記第2コンテンツの複製および前記第4コンテンツの複製を保存する機能を有し、前記第1アプリケーションは、前記所定の記憶領域に保存された各複製を取得することによって前記第2アプリケーションによって作成された前記第2コンテンツと前記第4コンテンツとを取得して前記記憶媒体内の前記第1アプリケーション用の記憶領域に保存する機能と、前記第1期間内に前記第1アプリケーションによって作成された前記第1コンテンツの前記第1サムネイルと、前記第1期間内に前記第2アプリケーションによって作成された前記第2コンテンツの前記第2サムネイルとを前記第1表示領域に時系列順に配置して表示し、且つ前記第2期間内に前記第1アプリケーションによって作成された前記第3コンテンツの前記第3サムネイルと、前記第2期間内に前記第2アプリケーションによって作成された前記第4コンテンツの前記第4サムネイルとを前記第2表示領域に時系列順に配置して表示することによって、前記第1サムネイル、前記第2サムネイル、前記第3サムネイル、および前記第4サムネイルを二次元状に配置して表示する機能とを有する。

Claims (15)

  1. ディスプレイと、
    複数種のアプリケーションプログラムによって作成された複数種のコンテンツを管理し、前記複数種のコンテンツの内、第1期間内に作成された複数種の第1コンテンツを前記ディスプレイの画面上の第1表示領域に時系列順に表示する処理手段とを具備する電子機器。
  2. 前記複数種のアプリケーションプログラムは、第1アプリケーションプログラムと、前記第1アプリケーションプログラムとは異なる一つ以上の第2アプリケーションプログラムとを含み、
    前記第1アプリケーションプログラムは、前記一つ以上の第2アプリケーションプログラムによって作成されたコンテンツを前記一つ以上の第2アプリケーションプログラムから取得するように構成され、
    前記処理手段は、前記第1アプリケーションプログラムを実行することによって、前記第1期間内に前記第1アプリケーションプログラムによって作成された一つ以上のコンテンツと前記第1期間内に前記一つ以上の第2アプリケーションプログラムによって作成された一つ以上のコンテンツとを前記第1表示領域に時系列順に表示する請求項1記載の電子機器。
  3. 前記処理手段は、
    前記複数種のコンテンツの内、前記第1期間の前または後の第2期間内に前記複数種のアプリケーションプログラムによって作成された複数種の第2コンテンツを、前記第1表示領域と並行に延在する前記画面上の第2表示領域に時系列順に表示する請求項1記載の電子機器。
  4. ユーザ操作によって前記複数種のアプリケーションプログラムの内の一つのアプリケーションプログラムが選択された場合、前記処理手段は、前記複数種の第1コンテンツの内、前記第1期間内に前記選択されたアプリケーションプログラムによって作成された一つ以上のコンテンツを、前記第1表示領域に時系列順に表示する請求項1記載の電子機器。
  5. 前記複数種のコンテンツは、手書きデータを入力可能な第1アプリケーションプログラムによって作成された複数の手書きページと、前記第1アプリケーションプログラムと異なる一つ以上の第2アプリケーションプログラムによって作成された複数のコンテンツとを含む請求項1記載の電子機器。
  6. 前記第1表示領域に表示される前記複数種の第1コンテンツは、前記複数種の第1コンテンツに対応する複数のサムネイル画像であり、
    前記処理手段は、
    ユーザ操作に基づいて、前記複数種の第1コンテンツの内の第1コンテンツに手書きストロークを書き込んで前記第1コンテンツを編集し、
    前記第1コンテンツの編集の後に前記複数種のコンテンツの一覧の表示を要求するユーザ操作が検出された場合、前記複数種の第1コンテンツに対応する複数のサムネイル画像であって、前記手書きストロークが反映された前記第1コンテンツのサムネイル画像を含む複数のサムネイル画像を前記第1表示領域に表示する請求項1記載の電子機器。
  7. 前記処理手段は、
    前記複数種のコンテンツの内の一つ以上のコンテンツを各々が含む複数のノートを管理し、
    ユーザ操作に基づいて、前記複数種のコンテンツ内の任意のコンテンツを、前記複数のノート内の任意のノート間で移動する請求項1記載の電子機器。
  8. 前記複数種のコンテンツは、手書きデータを入力可能な第1アプリケーションプログラムによって作成された複数の手書きページと、前記第1アプリケーションプログラムと異なる一つ以上の第2アプリケーションプログラムによって作成された複数のコンテンツとを含み、
    前記処理手段は、
    前記複数の手書きページの内の一つ以上の手書きページを各々が含む一以上の第1ノートと、前記複数のコンテンツを含む別のノートとを管理し、
    ユーザ操作に応じて、前記別のノートに含まれるコンテンツを、前記一以上の第1ノート内の任意のノートに移動する請求項1記載の電子機器。
  9. 前記第1表示領域に表示される前記複数種の第1コンテンツは、前記複数種の第1コンテンツに対応する複数のサムネイル画像であり、
    前記処理手段は、
    前記複数種のコンテンツの内の一つ以上のコンテンツを各々が含む複数のノートであって、少なくとも第1ノートおよび第2ノートを含む複数のノートを管理し、
    前記第1ノートおよび第2ノートに異なる色を設定し、
    前記複数種の第1コンテンツの内、前記第1ノートに含まれるコンテンツの各々に対応するサムネイル画像を前記第1ノートに対応する色で表示し、前記複数種の第1コンテンツの内、前記第2ノートに含まれるコンテンツの各々に対応するサムネイル画像を前記第2ノートに対応する色で表示する請求項1記載の電子機器。
  10. 電子機器によって実行される複数種のアプリケーションプログラムによって作成された複数種のコンテンツを管理することと、
    前記複数種のコンテンツの内、第1期間内に作成された複数種の第1コンテンツを前記電子機器のディスプレイの画面上の第1表示領域に時系列順に表示することとを具備する方法。
  11. 前記複数種のアプリケーションプログラムは、第1アプリケーションプログラムと、前記第1アプリケーションプログラムとは異なる一つ以上の第2アプリケーションプログラムとを含み、
    前記第1アプリケーションプログラムは、前記一つ以上の第2アプリケーションプログラムによって作成されたコンテンツを前記一つ以上の第2アプリケーションプログラムから取得するように構成され、
    前記表示することは、
    前記第1アプリケーションプログラムを実行することによって、前記第1期間内に前記第1アプリケーションプログラムによって作成された一つ以上のコンテンツと前記第1期間内に前記一つ以上の第2アプリケーションプログラムによって作成された一つ以上のコンテンツとを前記第1表示領域に時系列順に表示することを含む、請求項10記載の方法。
  12. 前記複数種のコンテンツの内、前記第1期間の前または後の第2期間内に前記複数種のアプリケーションプログラムによって作成された複数種の第2コンテンツを、前記第1表示領域と並行に延在する前記画面上の第2表示領域に時系列順に表示することをさらに具備する請求項10記載の方法。
  13. コンピュータによって実行されるプログラムであって、
    前記コンピュータによって実行される、前記プログラムを含む複数種のアプリケーションプログラムによって作成された複数種のコンテンツを管理する手順と、
    前記複数種のコンテンツの内、第1期間内に作成された複数種の第1コンテンツを前記コンピュータのディスプレイの画面上の第1表示領域に時系列順に表示する手順とを前記コンピュータに実行させるためのプログラム。
  14. 前記プログラムは第1アプリケーションプログラムを含み、
    前記複数種のアプリケーションプログラムは、前記第1アプリケーションプログラムと、前記第1アプリケーションプログラムとは異なる一つ以上の第2アプリケーションプログラムとを含み、
    前記第1アプリケーションプログラムは、前記一つ以上の第2アプリケーションプログラムによって作成されたコンテンツを前記一つ以上の第2アプリケーションプログラムから取得するように構成され、
    前記表示する手順は、
    前記第1アプリケーションプログラムを実行することによって、前記第1期間内に前記第1アプリケーションプログラムによって作成された一つ以上のコンテンツと前記第1期間内に前記一つ以上の第2アプリケーションプログラムによって作成された一つ以上のコンテンツとを前記第1表示領域に時系列順に表示する手順を含む、請求項13記載のプログラム。
  15. 前記複数種のコンテンツの内、前記第1期間の前または後の第2期間内に前記複数種のアプリケーションプログラムによって作成された複数種の第2コンテンツを、前記第1表示領域と並行に延在する前記画面上の第2表示領域に時系列順に表示する手順を前記コンピュータにさらに実行させる、請求項13記載のプログラム。
JP2015190835A 2015-09-29 2015-09-29 電子機器および方法 Active JP6147825B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015190835A JP6147825B2 (ja) 2015-09-29 2015-09-29 電子機器および方法
US15/005,978 US10296170B2 (en) 2015-09-29 2016-01-25 Electronic apparatus and method for managing content

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015190835A JP6147825B2 (ja) 2015-09-29 2015-09-29 電子機器および方法

Publications (2)

Publication Number Publication Date
JP2017068406A true JP2017068406A (ja) 2017-04-06
JP6147825B2 JP6147825B2 (ja) 2017-06-14

Family

ID=58409434

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015190835A Active JP6147825B2 (ja) 2015-09-29 2015-09-29 電子機器および方法

Country Status (2)

Country Link
US (1) US10296170B2 (ja)
JP (1) JP6147825B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019095999A (ja) * 2017-11-21 2019-06-20 凸版印刷株式会社 操作入力装置及びプログラム
JP2020186917A (ja) * 2019-05-09 2020-11-19 株式会社島津製作所 分析装置のレポート作成装置、方法およびプログラム
WO2024101642A1 (ko) * 2022-11-09 2024-05-16 삼성전자 주식회사 딥링크를 위한 디스플레이 장치 및 그 제어 방법
JP7561946B2 (ja) 2019-02-22 2024-10-04 富士フイルム株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10846345B2 (en) * 2018-02-09 2020-11-24 Microsoft Technology Licensing, Llc Systems, methods, and software for implementing a notes service
US10121474B2 (en) * 2016-02-17 2018-11-06 Microsoft Technology Licensing, Llc Contextual note taking
CN108628484A (zh) * 2017-03-15 2018-10-09 北京点石经纬科技有限公司 电子手写装置及电子手写显示系统
IT201700040685A1 (it) * 2017-04-12 2018-10-12 Easystudy S R L Sistema elettronico di aggiornamento e studio di codici normativi.
KR102403141B1 (ko) * 2017-08-31 2022-05-30 삼성전자주식회사 프리뷰 ui를 제공할 수 있는 디스플레이 장치 및 이의 제어 방법
US20220107620A1 (en) * 2020-10-06 2022-04-07 Daniel Agopsowicz Post-medical-procedure therapy device manufactured based on medical imagery and customized information of patient and method of manufacturing the same
US11907498B2 (en) * 2020-10-30 2024-02-20 Boe Technology Group Co., Ltd. Human-computer interaction method, apparatus and system and computer-readable storage medium
JP2022153986A (ja) * 2021-03-30 2022-10-13 セイコーエプソン株式会社 表示制御方法及び表示システム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014203249A (ja) * 2013-04-04 2014-10-27 株式会社東芝 電子機器およびデータ処理方法
JP2015087789A (ja) * 2013-10-28 2015-05-07 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム

Family Cites Families (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6400378B1 (en) * 1997-09-26 2002-06-04 Sony Corporation Home movie maker
US6054989A (en) * 1998-09-14 2000-04-25 Microsoft Corporation Methods, apparatus and data structures for providing a user interface, which exploits spatial memory in three-dimensions, to objects and which provides spatialized audio
JP4730571B2 (ja) * 2000-05-01 2011-07-20 ソニー株式会社 情報処理装置および方法、並びにプログラム格納媒体
US8028249B2 (en) * 2001-05-23 2011-09-27 Eastman Kodak Company Method and system for browsing large digital multimedia object collections
US6900819B2 (en) * 2001-09-14 2005-05-31 Fuji Xerox Co., Ltd. Systems and methods for automatic emphasis of freeform annotations
US7257774B2 (en) * 2002-07-30 2007-08-14 Fuji Xerox Co., Ltd. Systems and methods for filtering and/or viewing collaborative indexes of recorded media
US20040068423A1 (en) * 2002-10-03 2004-04-08 Shaw Grant D. Graphical user interfaces for sets of medical image data files
US7545758B2 (en) * 2002-12-11 2009-06-09 Siemens Communications, Inc. System and method for collaboration summarization playback
US7325198B2 (en) * 2002-12-31 2008-01-29 Fuji Xerox Co., Ltd. Calendar-based interfaces for browsing and manipulation of digital images
US7818689B2 (en) * 2003-09-29 2010-10-19 Olympus Corporation Information managing method, information managing apparatus, information managing program and storage medium
US6990637B2 (en) * 2003-10-23 2006-01-24 Microsoft Corporation Graphical user interface for 3-dimensional view of a data collection based on an attribute of the data
US7509345B2 (en) * 2004-09-29 2009-03-24 Microsoft Corporation Method and system for persisting and managing computer program clippings
US7716194B2 (en) * 2005-01-12 2010-05-11 Microsoft Corporation File management system employing time line based representation of data
US7421449B2 (en) * 2005-01-12 2008-09-02 Microsoft Corporation Systems and methods for managing a life journal
US7788592B2 (en) * 2005-01-12 2010-08-31 Microsoft Corporation Architecture and engine for time line based visualization of data
US7725837B2 (en) * 2005-03-31 2010-05-25 Microsoft Corporation Digital image browser
JP4533791B2 (ja) * 2005-04-19 2010-09-01 株式会社日立製作所 情報閲覧装置
JP2007179351A (ja) * 2005-12-28 2007-07-12 Sony Corp ファイル管理装置および画像表示装置
CA2621488A1 (en) 2005-09-13 2007-03-22 Spacetime3D, Inc. System and method for providing three-dimensional graphical user interface
US8074175B2 (en) * 2006-01-06 2011-12-06 Microsoft Corporation User interface for an inkable family calendar
EP2010999A4 (en) * 2006-04-21 2012-11-21 Google Inc SYSTEM FOR ORGANIZING AND VISUALIZING DISPLAY OBJECTS
JP4775179B2 (ja) * 2006-08-28 2011-09-21 ソニー株式会社 表示のスクロール方法、表示装置および表示プログラム
US8161410B2 (en) * 2006-09-29 2012-04-17 Apple Inc. Computer-implemented display of ordered items
US7779358B1 (en) * 2006-11-30 2010-08-17 Adobe Systems Incorporated Intelligent content organization based on time gap analysis
US7853888B1 (en) * 2007-01-12 2010-12-14 Adobe Systems Incorporated Methods and apparatus for displaying thumbnails while copying and pasting
WO2008150912A1 (en) * 2007-05-29 2008-12-11 Livescribe, Inc. Organization of user generated content captured by a smart pen computing system
JP4322945B2 (ja) * 2007-12-27 2009-09-02 株式会社東芝 電子機器、及び画像表示制御方法
US8832598B2 (en) * 2008-05-09 2014-09-09 Ricoh Company, Limited File management apparatus, file management method, and computer program product
JP4636134B2 (ja) 2008-07-25 2011-02-23 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
JP2010092455A (ja) * 2008-09-10 2010-04-22 Ricoh Co Ltd ファイル管理システム及びプログラム
JP4496264B2 (ja) * 2008-10-24 2010-07-07 株式会社東芝 電子機器及び映像表示方法
JP2010140116A (ja) * 2008-12-09 2010-06-24 Ricoh Co Ltd ファイル管理装置、ファイル管理方法及びファイル管理プログラム
US8599219B2 (en) * 2009-09-18 2013-12-03 Adobe Systems Incorporated Methods and apparatuses for generating thumbnail summaries for image collections
US8957866B2 (en) * 2010-03-24 2015-02-17 Microsoft Corporation Multi-axis navigation
US9208222B2 (en) * 2010-11-26 2015-12-08 Htc Corporation Note management methods and systems
US8533594B2 (en) * 2011-04-19 2013-09-10 Autodesk, Inc. Hierarchical display and navigation of document revision histories
AU2012101185B4 (en) * 2011-08-19 2013-05-02 Apple Inc. Creating and viewing digital note cards
US9256588B1 (en) * 2011-09-28 2016-02-09 Amazon Technologies, Inc. Transferring content to a substantially similar location in a virtual notebook using a stylus enabled device
US20130332831A1 (en) * 2012-06-07 2013-12-12 Sony Corporation Content management user interface that is pervasive across a user's various devices
JP2014052915A (ja) 2012-09-07 2014-03-20 Toshiba Corp 電子機器、表示制御方法及びプログラム
JP5270027B1 (ja) * 2012-09-07 2013-08-21 株式会社東芝 情報処理装置および手書き文書検索方法
US20140071160A1 (en) 2012-09-07 2014-03-13 Kabushiki Kaisha Toshiba Electronic apparatus and display control method
JP6003444B2 (ja) * 2012-09-19 2016-10-05 ブラザー工業株式会社 表示プログラム、及び、情報処理装置
KR101997447B1 (ko) * 2012-12-10 2019-07-08 엘지전자 주식회사 이동단말기 및 그 제어 방법
US9626096B2 (en) * 2012-12-27 2017-04-18 Kabushiki Kaisha Toshiba Electronic device and display method
WO2014147719A1 (ja) * 2013-03-18 2014-09-25 株式会社 東芝 電子機器および手書き文書処理方法
US9465513B2 (en) * 2013-04-11 2016-10-11 General Electric Company Visual representation of map navigation history
JP5735126B2 (ja) * 2013-04-26 2015-06-17 株式会社東芝 システムおよび筆跡検索方法
US10108586B2 (en) * 2013-06-15 2018-10-23 Microsoft Technology Licensing, Llc Previews of electronic notes
JP2015022656A (ja) * 2013-07-22 2015-02-02 株式会社東芝 電子機器、方法およびプログラム
TWI653571B (zh) * 2013-10-16 2019-03-11 3M新設資產公司 用於處理數位便箋之方法、電腦系統、非暫時性電腦可讀取媒體及計算裝置
US20150116284A1 (en) * 2013-10-24 2015-04-30 Livescribe Inc. Smart Zooming of Content Captured by a Smart Pen
US20150127643A1 (en) * 2013-11-07 2015-05-07 Dadoof Corporation Digitally displaying and organizing personal multimedia content
US10176683B2 (en) * 2014-09-18 2019-01-08 Honeywell International Inc. Virtual panoramic thumbnail to summarize and visualize video content in video surveillance and in connected home business

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014203249A (ja) * 2013-04-04 2014-10-27 株式会社東芝 電子機器およびデータ処理方法
JP2015087789A (ja) * 2013-10-28 2015-05-07 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019095999A (ja) * 2017-11-21 2019-06-20 凸版印刷株式会社 操作入力装置及びプログラム
JP7561946B2 (ja) 2019-02-22 2024-10-04 富士フイルム株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体
JP2020186917A (ja) * 2019-05-09 2020-11-19 株式会社島津製作所 分析装置のレポート作成装置、方法およびプログラム
JP7322494B2 (ja) 2019-05-09 2023-08-08 株式会社島津製作所 分析装置のレポート作成装置、方法およびプログラム
WO2024101642A1 (ko) * 2022-11-09 2024-05-16 삼성전자 주식회사 딥링크를 위한 디스플레이 장치 및 그 제어 방법

Also Published As

Publication number Publication date
JP6147825B2 (ja) 2017-06-14
US20170090692A1 (en) 2017-03-30
US10296170B2 (en) 2019-05-21

Similar Documents

Publication Publication Date Title
JP6147825B2 (ja) 電子機器および方法
JP5248696B1 (ja) 電子機器、手書き文書作成方法、及び手書き文書作成プログラム
JP6109625B2 (ja) 電子機器およびデータ処理方法
US9310998B2 (en) Electronic device, display method, and display program
US20140189593A1 (en) Electronic device and input method
US9207808B2 (en) Image processing apparatus, image processing method and storage medium
JP6092418B2 (ja) 電子機器、方法及びプログラム
JP5925957B2 (ja) 電子機器および手書きデータ処理方法
US20160321238A1 (en) Electronic device, method and storage medium
JP6092462B2 (ja) 電子機器、方法及びプログラム
US20140189594A1 (en) Electronic device and display method
JP5869179B2 (ja) 電子機器および手書き文書処理方法
US20180121084A1 (en) Information display device
US20220019783A1 (en) Method for processing a note page of a notebook, computer device and storage medium
JP2013238919A (ja) 電子機器および手書き文書検索方法
US20160117548A1 (en) Electronic apparatus, method and storage medium
JP5634617B1 (ja) 電子機器および処理方法
US20150098653A1 (en) Method, electronic device and storage medium
JP6271125B2 (ja) 電子機器、表示方法、およびプログラム
WO2014192156A1 (ja) 電子機器および処理方法
JP2015138494A (ja) 電子機器および方法
WO2013128850A1 (ja) 情報処理装置及び情報処理方法
JP6499198B2 (ja) 手書きのための電子機器および方法
JP2015109116A (ja) 電子機器、表示方法、及び表示プログラム
CN117149019A (zh) 文件编辑方法、终端、电子设备及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170517

R151 Written notification of patent or utility model registration

Ref document number: 6147825

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313121

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350