JP2020101892A - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
JP2020101892A
JP2020101892A JP2018238193A JP2018238193A JP2020101892A JP 2020101892 A JP2020101892 A JP 2020101892A JP 2018238193 A JP2018238193 A JP 2018238193A JP 2018238193 A JP2018238193 A JP 2018238193A JP 2020101892 A JP2020101892 A JP 2020101892A
Authority
JP
Japan
Prior art keywords
display
control unit
owner
pen
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018238193A
Other languages
English (en)
Other versions
JP7141327B2 (ja
Inventor
義昭 荻澤
Yoshiaki Ogisawa
義昭 荻澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2018238193A priority Critical patent/JP7141327B2/ja
Priority to US16/714,124 priority patent/US20200201519A1/en
Priority to CN201911294398.3A priority patent/CN111352546A/zh
Publication of JP2020101892A publication Critical patent/JP2020101892A/ja
Application granted granted Critical
Publication of JP7141327B2 publication Critical patent/JP7141327B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】自分のオブジェクトの表示が他のユーザーのオブジェクトによって邪魔されることを抑制できる情報処理装置を提供する。【解決手段】情報処理装置10は、表示部21と、オブジェクト管理部51と、オブジェクト制御部54とを備える。表示部21は、オブジェクトを表示する。オブジェクト管理部51は、オブジェクトのオーナー属性を管理する。オブジェクト制御部54は、オブジェクトのオーナー属性に基づいて、表示部21におけるオブジェクトの表示優先順位を制御する。【選択図】図3

Description

本発明は、情報処理装置に関する。
特許文献1に記載された情報処理装置は、アプリケーション間の優先度の高低に応じてウィンドウの重ね表示を制御する。高い優先度を有するアプリケーションのウィンドウが前面側のレイヤーに表示され、低い優先度を有するアプリケーションのウィンドウの少なくとも一部が隠される。
一方、テーブル型タッチディスプレイ装置のような、大画面を有する表示装置を備えた情報処理装置が知られている。表示装置を複数のユーザーが共用する場合、各ユーザーは、画面上にそれぞれオブジェクトを表示して作業をすることができる。オブジェクトとは、画像、文書、ウィンドウ、又はアイコンのような表示情報をいう。
テーブル型タッチディスプレイ装置を使用する各ユーザーは、画面上のオブジェクトをテーブルの上に置いた資料のように、タッチ操作で動かしたり、他のユーザーに配布したりすることができる。これにより、複数のユーザーによる会議が実現可能である。
例えば、特許文献2に記載された表示制御装置は、大型表示タッチパネルに設けられたユーザー位置センサにより、ユーザー数と位置を認識し、認識したユーザー数と位置に従って大型表示タッチパネルの表示エリアを複数の表示エリアに分割してユーザー位置に対応して表示させる。また、進行役用の表示エリアに表示されているファイルをドラッグ操作することにより、ドラッグ方向にある他の参加者用の表示エリアに進行役用の表示エリアに表示されているファイルと同じ文書データのファイルを表示させることが開示されている。
特開2009−163509号公報 特開2008−269044号公報
ディスプレイ装置を使用する場合、各ユーザーは、多くの場合、自分のオブジェクトの表示及び編集作業をするための領域を確保することを希望する。ユーザーは、他のユーザーのオブジェクトが自分の領域に越境してきたり、他のユーザーから配布されたオブジェクトが自分の領域に入ってきたりすると邪魔に思うことがある。
上記した課題に鑑み、本発明は、自分のオブジェクトの表示が他のユーザーのオブジェクトによって邪魔されることを抑制できる情報処理装置を提供することを目的とする。
本発明の情報処理装置は、表示部と、第1管理部と、表示制御部とを備える。前記表示部は、オブジェクトを表示する。前記第1管理部は、前記オブジェクトのオーナー属性を管理する。前記表示制御部は、前記オブジェクトのオーナー属性に基づいて、前記表示部における前記オブジェクトの表示優先順位を制御する。
本発明によれば、自分のオブジェクトの表示が他のユーザーのオブジェクトによって邪魔されることを抑制できる。
本発明の実施形態に係る情報処理装置の一例を示す斜視図である。 情報処理装置の平面図である。 情報処理装置のブロック図である。 オブジェクト管理テーブルの一例を示す図である。 領域管理テーブルの一例を示す図である。 ペン管理テーブルの一例を示す図である。 制御部のオブジェクト管理動作の一例を示すフローチャートである。 制御部の領域管理動作の一例を示すフローチャートである。 制御部のオブジェクト制御動作の一例を示すフローチャートである。 表示装置の表示の一例を示す図である。 表示装置の他の表示例を示す図である。 表示装置の更に他の表示例を示す図である。
本発明の実施形態について、図1〜図12を参照しながら説明する。なお、図中、同一又は相当部分については同一の参照符号を付して説明を繰り返さない。
まず、図1及び図2を参照して、実施形態に係る情報処理装置10の外観について説明する。図1は、情報処理装置10の一例を示す斜視図である。図2は、情報処理装置10の平面図である。情報処理装置10は、テーブル型タッチディスプレイ装置として構成されている。
図1に示されるように、情報処理装置10は、脚15と、表示装置20とを備える。表示装置20は、テーブルの天板部分に相当する。脚15は、表示装置20を支持する。
図2に示されるように、表示装置20は、ワークエリアWを有する。ワークエリアWは、ユーザーが画像を用いて作業を行う領域である。例えば、第1オブジェクトX1と第2オブジェクトX2とがワークエリアWに表示される。
次に、図3を参照して、情報処理装置10の機能ブロック構成について説明する。図3は、情報処理装置10のブロック図である。
図3に示されるように、情報処理装置10は、表示装置20に加えて、タッチデータ受信部25と、複数のタッチペン30と、ペンデータ受信部35と、記憶部40と、制御部50とを備える。
表示装置20は、表示部21と、タッチ入力部22とを含む。表示部21は、オブジェクトを表示するように、例えば液晶パネルとして構成される。タッチ入力部22は、例えばタッチパネルとして構成される。
タッチデータ受信部25は、タッチ入力部22から送られるタッチデータを受信する。タッチデータは、タッチ入力部22におけるタッチ位置を示すデータを含む。
複数のタッチペン30は、タッチ入力部22へのタッチ操作のためのツールである。複数のタッチペン30の各々には、互いに異なるペンIDが割り当てられている。
ペンデータ受信部35は、タッチペン30からタッチ操作の際に近距離無線通信で送られるペンデータを受信する。ペンデータは、タッチペン30のペンIDを含む。
記憶部40は、記憶装置を含み、データ及びコンピュータプログラムを記憶する。記憶部40は、半導体メモリのような主記憶装置と、ハードディスクドライブのような補助記憶装置とを含む。
記憶部40は、オブジェクト管理テーブル41と、領域管理テーブル42と、ペン管理テーブル43と、文書フォルダ44とを含む。オブジェクト管理テーブル41は、表示部21に表示されるオブジェクトと、オブジェクトオーナーとの関係を記憶する。領域管理テーブル42は、表示部21の一部分をなす領域と、領域オーナーとの関係を記憶する。ペン管理テーブル43は、タッチペン30のペンIDと、ペンオーナーとの関係を記憶する。文書フォルダ44は、文書ファイルを記憶する。例えば文書ファイルから、その表示情報である文書オブジェクトが生成される。
制御部50は、CPU(Central Processing Unit)のようなプロセッサーを含む。制御部50のプロセッサーは、記憶部40に記憶されたコンピュータプログラムを実行することによって、情報処理装置10の各構成を制御する。
ユーザーは、手指又は手の平を使ったタッチ操作によってオブジェクトに対する操作を指定することができる。例えば、オブジェクトの移動、拡縮、回転といった操作や、オブジェクトに対する描画操作が指定可能である。また、ユーザーは、タッチペン30を使ったタッチ操作によって、後述する種々の操作を指定することもできる。
制御部50は、タッチデータ受信部25を介して受信したタッチデータに基づいて、タッチ操作の位置を検知する。また、制御部50は、ペンデータ受信部35を介して受信したペンデータに基づいて、いずれのタッチペン30によりタッチ操作が行われたかを検知する。
制御部50は、オブジェクト管理部51と、領域管理部52と、ペン管理部53と、オブジェクト制御部54とを有する。制御部50は、記憶部40に記憶されたコンピュータプログラムを実行することによって、オブジェクト管理部51、領域管理部52、ペン管理部53、及びオブジェクト制御部54として機能する。
オブジェクト管理部51は、オブジェクト管理テーブル41の作成及び更新を実行することにより、表示部21に表示されるオブジェクトのオーナー属性を管理する。オブジェクト管理部51は、「第1管理部」の一例に相当する。
領域管理部52は、領域管理テーブル42の作成及び更新を実行することにより、表示部21の一部分をなす領域のオーナー属性を管理する。領域管理部52は、「第2管理部」の一例に相当する。
ペン管理部53は、ペン管理テーブル43の作成及び更新を実行することにより、タッチペン30のオーナー属性を管理する。ペン管理部53は、「第3管理部」の一例に相当する。
制御部50は、不図示のユーザー登録ルーチンを実行する。表示装置20の共用を希望するユーザーは、ユーザー登録ルーチンの実行画面において自分の名前を登録する。制御部50は、参加ユーザーの名前及び数を認識する。ワークエリアWは、初期状態として、例えば参加ユーザーの数と等しい数の領域に均等分割される。ユーザーは、更に自分が使用するタッチペン30のペンIDを登録する。その結果、ペン管理テーブル43が作成される。
オブジェクト制御部54は、文書フォルダ44の中の指定された文書ファイルを開き、指定された文書ファイルに係るオブジェクトが表示部21に表示されるように、表示部21を制御する。また、オブジェクト制御部54は、オブジェクトのオーナー属性に基づいて、表示部21におけるオブジェクトの表示優先順位を制御する。具体的に説明すると、オブジェクト制御部54は、オブジェクトのオーナー属性と、領域のオーナー属性とに基づいて、領域におけるオブジェクトの表示優先順位を制御する。オブジェクト制御部54は、「表示制御部」の一例に相当する。
次に、図3及び図4を参照して、オブジェクト管理テーブル41について説明する。図4は、オブジェクト管理テーブル41の一例を示す図である。
オブジェクト管理テーブル41は、表示部21に表示されるオブジェクトと、オブジェクトオーナーとの関係を記憶する。例えば、オブジェクトA1及びオブジェクトA2のオーナーはAさん、オブジェクトB1のオーナーはBさんという情報が、オブジェクト管理テーブル41に記憶される。
次に、図3及び図5を参照して、領域管理テーブル42について説明する。図5は、領域管理テーブル42の一例を示す図である。
領域管理テーブル42は、表示部21の一部分をなす領域と、領域オーナーとの関係を記憶する。例えば、領域R1のオーナーはAさん、領域R2のオーナーはBさんという情報が、領域管理テーブル42に記憶される。
次に、図3及び図6を参照して、ペン管理テーブル43について説明する。図6は、ペン管理テーブル43の一例を示す図である。
ペン管理テーブル43は、タッチペン30のペンIDと、ペンオーナーとの関係を記憶する。例えば、「001」のペンIDを有するタッチペン30のオーナーはAさん、「002」のペンIDを有するタッチペン30のオーナーはBさんという情報が、ペン管理テーブル43に記憶される。
次に、図3〜図9を参照して、制御部50の動作について説明する。図7は、制御部50のオブジェクト管理動作の一例を示すフローチャートである。図8は、制御部50の領域管理動作の一例を示すフローチャートである。図9は、制御部50のオブジェクト制御動作の一例を示すフローチャートである。制御部50は、オブジェクト管理動作、領域管理動作、及びオブジェクト制御動作を一組の動作として、これら一組の動作を繰り返す。
ステップS100:制御部50は、図7に示されるように、オブジェクトの元ファイルを作成し又は配布した人が判明しているか否かを判定する。オブジェクトの元ファイルを作成し又は配布した人が判明している場合(ステップS100でYES)、制御部50の処理がステップS102へ進む。オブジェクトの元ファイルを作成し又は配布した人が判明していない場合(ステップS100でNO)、制御部50の処理がステップS104へ進む。
ステップS102:制御部50は、オブジェクトの元ファイルを作成し又は配布した人をオブジェクトオーナーとして、オブジェクト管理テーブル41に登録する。ステップS102の処理が完了すると、制御部50のオブジェクト管理動作が終了する。
ステップS104:制御部50は、タッチペン30によるオブジェクトへのタッチ操作があるか否かを判定する。タッチペン30によるオブジェクトへのタッチ操作がある場合(ステップS104でYES)、制御部50の処理がステップS106へ進む。タッチペン30によるオブジェクトへのタッチ操作がない場合(ステップS104でNO)、制御部50の処理がステップS108へ進む。
ステップS106:制御部50は、タッチペン30のオーナーをオブジェクトオーナーとして、オブジェクト管理テーブル41に登録する。ステップS106の処理が完了すると、制御部50のオブジェクト管理動作が終了する。
ステップS108:制御部50は、タッチペン30による描画でオブジェクトが作成されたか否かを判定する。タッチペン30による描画でオブジェクトが作成された場合(ステップS108でYES)、制御部50の処理がステップS106へ進む。タッチペン30による描画でオブジェクトが作成されていない場合(ステップS108でNO)、制御部50のオブジェクト管理動作が終了する。
ステップS100及びステップS102の処理によれば、制御部50は、オブジェクトの元ファイルを作成し又は配布した人がオブジェクトオーナーになるように、オブジェクトのオーナー属性を初期設定する。また、ステップS104及びステップS106の処理によれば、制御部50は、オブジェクトにタッチしたタッチペン30のオーナー属性と同一のオーナー属性をオブジェクトが有するように、オブジェクトのオーナー属性を変更する。更に、ステップS108及びステップS106の処理によれば、制御部50は、オブジェクトを作成したユーザーを示すオーナー属性をオブジェクトに設定する。
ステップS200:制御部50は、図8に示されるように、タッチペン30によるオブジェクト外へのタッチ操作があるか否かを判定する。タッチペン30によるオブジェクト外へのタッチ操作がある場合(ステップS200でYES)、制御部の処理がステップS202へ進む。タッチペン30によるオブジェクト外へのタッチ操作がない場合(ステップS200でNO)、制御部50の動作がステップS206へ進む。この場合のタッチ操作は、タッチしたペン30を移動させることなくタッチアップする操作である。
ステップS202:制御部50は、タッチペン30のタッチ位置を含む一定の大きさの領域を確保する。ステップS202の処理が完了すると、制御部50の処理がステップS204へ進む。
ステップS204:制御部50は、タッチペン30のオーナーを領域オーナーとして、領域管理テーブル42に登録する。ステップS204の処理が完了すると、制御部50の領域管理動作が終了する。
ステップS206:制御部50は、タッチペン30による描画で領域が画定されたか否かを判定する。タッチペン30による描画で領域が画定された場合(ステップS206でYES)、制御部50の処理がステップS204へ進む。タッチペン30による描画で領域が画定されていない場合(ステップS206でNO)、制御部50の領域管理動作が終了する。
ステップS200、ステップS202、及びステップS204の処理によれば、制御部50は、表示部21にタッチしたタッチペン30の位置を含む一定の大きさの領域に、タッチペン30のオーナー属性と同一のオーナー属性を設定する。また、ステップS206及びステップS204の処理によれば、制御部50は、表示部21においてタッチペン30により画定された領域に、タッチペン30のオーナー属性と同一のオーナー属性を設定する。
ステップS300:制御部50は、図9に示されるように、1つの領域を選択する。ステップS300の処理が完了すると、制御部50の処理がステップS302へ進む。
ステップS302:制御部50は、1つのオブジェクトを選択する。ステップS302の処理が完了すると、制御部50の処理がステップS304へ進む。
ステップS304:制御部50は、ステップS302で選択されたオブジェクトのオーナーと、ステップS300で選択された領域のオーナーとが一致するか否かを判定する。オブジェクトオーナーと領域オーナーとが一致する場合(ステップS304でYES)、制御部50の処理がステップS306へ進む。オブジェクトオーナーと領域オーナーとが一致しない場合(ステップS304でNO)、制御部50の処理がステップS308へ進む。
ステップS306:制御部50は、ステップS302で選択されたオブジェクトの表示優先順位を「高」に設定する。ステップS306の処理が完了すると、制御部50の処理がステップS310へ進む。
ステップS308:制御部50は、ステップS302で選択されたオブジェクトの表示優先順位を「低」に設定する。ステップS308の処理が完了すると、制御部50の処理がステップS310へ進む。
ステップS310:制御部50は、ステップS306又はステップS308で設定された表示優先順位にしたがって、ステップS300で選択された領域内に、ステップS302で選択されたオブジェクトを表示する。ステップS310の処理が完了すると、制御部50の処理がステップS312へ進む。
ステップS312:制御部50は、次のオブジェクトがあるか否かを判定する。次のオブジェクトがある場合(ステップS312でYES)、制御部50の処理がステップS302に戻る。次のオブジェクトがない場合(ステップS312でNO)、制御部50の処理がステップS314へ進む。
ステップS314:制御部50は、次の領域があるか否かを判定する。次の領域がある場合(ステップS314でYES)、制御部50の処理がステップS300に戻る。次の領域がない場合(ステップS314でNO)、制御部50のオブジェクト制御動作が終了する。
ステップS300〜ステップS314の処理によれば、制御部50は、オブジェクトのオーナー属性と領域のオーナー属性とが一致する場合には、一致しない場合に比べて、領域におけるオブジェクトの表示優先順位を高くする。
表示優先順位は、あるオブジェクトを他のオブジェクトよりも目立たなくするか否かを意味する。制御部50は、例えば、表示優先順位の低いオブジェクトを背面側のレイヤーに表示する第1規則を適用する。制御部50は、表示優先順位の低いオブジェクトを透明化して表示する第2規則を適用してもよい。制御部50は、表示優先順位の低いオブジェクトを縮小化又はアイコン化して表示する第3規則を適用してもよい。制御部50は、表示優先順位の低いオブジェクトを非表示にする第4規則を適用してもよい。また、制御部50は、高い表示優先順位を有するオブジェクトと、低い表示優先順位を有するオブジェクトとが重なった場合にのみ第1、第2、又は第3規則を適用してもよい。また、制御部50は、低い表示優先順位を有するオブジェクトが領域を跨いで表示される場合、つまりオブジェクトが越境した場合には、そのオブジェクトの越境部分にのみ第1、第2、又は第3規則を適用してもよい。
次に、図3〜図12を参照して、表示装置20の表示例について説明する。図10〜図12は、表示装置20のワークエリアWにおける表示例をそれぞれ示す図である。
図10に示されるように、ワークエリアWは、Aさん及びBさんという2人のユーザーにより共用される。ワークエリアWは、境界線61によって、領域R1と領域R2とに均等に分割されている。領域R1にはオブジェクトA1及びオブジェクトA2が、領域R2にはオブジェクトB1がそれぞれ表示されていたものとする。
図4に示されるように、オブジェクトA1及びオブジェクトA2のオーナーはAさん、オブジェクトB1のオーナーはBさんである。また、図5に示されるように、領域R1のオーナーはAさん、領域R2のオーナーはBさんである。更に、図6に示されるように、Aさんは「001」のペンIDを有するタッチペン30のオーナーであり、Bさんは「002」のペンIDを有するタッチペン30のオーナーである。
領域R1において、オブジェクトA1及びオブジェクトA2のいずれについても、オブジェクトオーナーと領域オーナーとがいずれもAさんで一致する。また、領域R2のオブジェクトB1については、オブジェクトオーナーと領域オーナーとがいずれもBさんで一致する。したがって、オブジェクトA1、オブジェクトA2、及びオブジェクトB1のいずれについても、表示優先順位が「高」に設定される(図9のステップS306参照)。
図10中に矢印で示されるように、Bさんが手指を使ったタッチ操作により、オブジェクトB1を領域R2から領域R1へ移動させたものとする。領域R1のオーナーはAさんであり、オブジェクトB1のオーナーはBさんである。領域R1のオブジェクトB1については、オブジェクトオーナーと領域オーナーとが一致しない。したがって、オブジェクトB1は、表示優先順位が「低」に設定される(図9のステップS308参照)。その結果、例えば、オブジェクトA2が前面側のレイヤーに、オブジェクトB1が背面側のレイヤーにそれぞれ表示される(図9のステップS310参照)。つまり、Aさんにとっては、自分のオブジェクトA1及びオブジェクトA2の表示が、BさんのオブジェクトB1によって邪魔されることが抑制できる。
Aさんは、オブジェクトB1を自分のオブジェクトとして受け入れる場合には、自分のタッチペン30でオブジェクトB1にタッチ操作をする。その結果、オブジェクトB1のオーナーは、BさんからAさんに変更される(図7のステップS104及びステップS106参照)。
最後に、ワークエリアWの境界線61の位置を変更する操作について説明する。
図11は、Bさんが自分のタッチペン30でオブジェクトB1の外にタッチ操作をした結果を示している。タッチペン30のタッチ位置を含む一定の大きさの領域R2が確保され、領域R2のオーナーがBさんに設定される(図8のステップS200、ステップS202、及びステップS204参照)。つまり、閉じた境界線61の内側がBさんの領域R2となり、閉じた境界線61の外側がAさんの領域R1となる。
なお、図11において領域R2が設定される場合に、領域R2の中に領域オーナー自身のオブジェクトが存在するときは、そのオブジェクトを内包するように領域R2が設定されてもよい。
図12は、Bさんが自分のタッチペン30で新たな境界線61を描画した結果を示している。新たな境界線61により画定された領域R2のオーナーが、Bさんに設定される(図8のステップS206及びステップS204参照)。ワークエリアWの残余の部分である領域R1のオーナーは、Aさんである。
Aさんも、Bさんと同様の操作によって境界線61の位置を変更することができる。
上記した実施形態の説明は、本発明における好適な実施形態を説明しているため、技術的に好ましい種々の限定を付している場合もあるが、本発明の技術範囲は、特に本発明を限定する記載がない限り、これらの態様に限定されるものではない。すなわち、上記実施形態における構成要素は適宜、既存の構成要素等との置き換えが可能であり、かつ、他の既存の構成要素との組合せを含む様々なバリエーションが可能である。上記実施形態の記載をもって、特許請求の範囲に記載された発明の内容を限定するものではない。
(1)本実施形態では、図10〜図12に示されるように、2人のユーザーがワークエリアWを共用したが、これに限られない。1人のユーザーが単独でワークエリアWを使用する場合でも、利点が得られる。例えば、自分が作成した文書ファイルに基づくオブジェクトの表示が、自分以外の者が作成した文書ファイルに基づくオブジェクトによって邪魔されることが抑制される。ワークエリアWを共用するユーザーの数は、3人以上でもよい。
(2)本実施形態では、図3に示されるように、情報処理装置10がタッチデータ受信部25とは別にペンデータ受信部35を備えたが、これに限られない。タッチ入力部22が指タッチ出力とペンタッチ出力とを区別して出力でき、かつタッチデータ受信部25がタッチペン30から送信されたペンデータを受信できるのであれば、ペンデータ受信部35が省略されてもよい。
本発明は、情報処理装置の分野に利用可能である。
10 情報処理装置
20 表示装置
21 表示部
22 タッチ入力部
30 タッチペン
50 制御部
51 オブジェクト管理部(第1管理部)
52 領域管理部(第2管理部)
53 ペン管理部(第3管理部)
54 オブジェクト制御部(表示制御部)

Claims (9)

  1. オブジェクトを表示する表示部と、
    前記オブジェクトのオーナー属性を管理する第1管理部と、
    前記オブジェクトのオーナー属性に基づいて、前記表示部における前記オブジェクトの表示優先順位を制御する表示制御部と
    を備えた、情報処理装置。
  2. 前記表示部の一部分をなす領域のオーナー属性を管理する第2管理部を更に備え、
    前記表示制御部は、前記オブジェクトのオーナー属性と、前記領域のオーナー属性とに基づいて、前記領域における前記オブジェクトの表示優先順位を制御する、請求項1に記載の情報処理装置。
  3. 前記表示制御部は、前記オブジェクトのオーナー属性と前記領域のオーナー属性とが一致する場合には、一致しない場合に比べて前記オブジェクトの前記領域における表示優先順位を高くする、請求項2に記載の情報処理装置。
  4. 前記第1管理部は、前記オブジェクトを作成したユーザーを示すオーナー属性を前記オブジェクトに設定する、請求項1から請求項3のいずれか1項に記載の情報処理装置。
  5. 前記表示部は、タッチパネルであり、
    前記タッチパネルにタッチするペンのオーナー属性を管理する第3管理部を更に備えた、請求項1から請求項4のいずれか1項に記載の情報処理装置。
  6. 前記第1管理部は、前記オブジェクトにタッチしたペンのオーナー属性と同一のオーナー属性を前記オブジェクトが有するように、前記オブジェクトのオーナー属性を変更する、請求項5に記載の情報処理装置。
  7. 前記第2管理部は、前記表示部にタッチした前記ペンの位置を含む一定の大きさの領域に、前記ペンのオーナー属性と同一のオーナー属性を設定する、請求項5又は請求項6に記載の情報処理装置。
  8. 前記第2管理部は、前記表示部において前記ペンにより画定された領域に、前記ペンのオーナー属性と同一のオーナー属性を設定する、請求項5又は請求項6に記載の情報処理装置。
  9. 前記表示部は、複数のユーザーに共用される、請求項1から請求項8のいずれか1項に記載の情報処理装置。
JP2018238193A 2018-12-20 2018-12-20 情報処理装置 Active JP7141327B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018238193A JP7141327B2 (ja) 2018-12-20 2018-12-20 情報処理装置
US16/714,124 US20200201519A1 (en) 2018-12-20 2019-12-13 Information processing apparatus
CN201911294398.3A CN111352546A (zh) 2018-12-20 2019-12-16 信息处理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018238193A JP7141327B2 (ja) 2018-12-20 2018-12-20 情報処理装置

Publications (2)

Publication Number Publication Date
JP2020101892A true JP2020101892A (ja) 2020-07-02
JP7141327B2 JP7141327B2 (ja) 2022-09-22

Family

ID=71097599

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018238193A Active JP7141327B2 (ja) 2018-12-20 2018-12-20 情報処理装置

Country Status (3)

Country Link
US (1) US20200201519A1 (ja)
JP (1) JP7141327B2 (ja)
CN (1) CN111352546A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020161058A (ja) * 2019-03-28 2020-10-01 シャープ株式会社 情報処理装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11169653B2 (en) 2019-01-18 2021-11-09 Dell Products L.P. Asymmetric information handling system user interface management
US11347367B2 (en) * 2019-01-18 2022-05-31 Dell Products L.P. Information handling system see do user interface management
US11009907B2 (en) 2019-01-18 2021-05-18 Dell Products L.P. Portable information handling system user interface selection based on keyboard configuration

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006215531A (ja) * 2005-01-06 2006-08-17 Canon Inc 情報処理装置、方法、記憶媒体並びプログラム
JP2010026770A (ja) * 2008-07-18 2010-02-04 Fujitsu Fsas Inc モニタ表示制御システムおよびモニタ表示制御方法
JP2012053526A (ja) * 2010-08-31 2012-03-15 Brother Ind Ltd 入力制御装置、入力制御方法及び入力制御プログラム
JP2013115644A (ja) * 2011-11-29 2013-06-10 Canon Inc 表示装置及び表示方法
JP2013149016A (ja) * 2012-01-18 2013-08-01 Panasonic Corp 表示装置および表示方法
JP2015153154A (ja) * 2014-02-14 2015-08-24 ソニー株式会社 情報処理装置および方法、情報処理システム、並びにプログラム
JP2018106671A (ja) * 2016-12-27 2018-07-05 株式会社ワコム 画像情報処理装置および画像情報処理方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101651859B1 (ko) * 2009-06-05 2016-09-12 삼성전자주식회사 사용자별 ui 제공방법 및 이를 적용한 디바이스
JP5977768B2 (ja) * 2014-01-14 2016-08-24 シャープ株式会社 画像表示装置及びその操作方法
JP6455448B2 (ja) * 2014-02-17 2019-01-23 ソニー株式会社 情報処理システム、情報処理方法、及びプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006215531A (ja) * 2005-01-06 2006-08-17 Canon Inc 情報処理装置、方法、記憶媒体並びプログラム
JP2010026770A (ja) * 2008-07-18 2010-02-04 Fujitsu Fsas Inc モニタ表示制御システムおよびモニタ表示制御方法
JP2012053526A (ja) * 2010-08-31 2012-03-15 Brother Ind Ltd 入力制御装置、入力制御方法及び入力制御プログラム
JP2013115644A (ja) * 2011-11-29 2013-06-10 Canon Inc 表示装置及び表示方法
JP2013149016A (ja) * 2012-01-18 2013-08-01 Panasonic Corp 表示装置および表示方法
JP2015153154A (ja) * 2014-02-14 2015-08-24 ソニー株式会社 情報処理装置および方法、情報処理システム、並びにプログラム
JP2018106671A (ja) * 2016-12-27 2018-07-05 株式会社ワコム 画像情報処理装置および画像情報処理方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020161058A (ja) * 2019-03-28 2020-10-01 シャープ株式会社 情報処理装置
JP7256665B2 (ja) 2019-03-28 2023-04-12 シャープ株式会社 情報処理装置

Also Published As

Publication number Publication date
CN111352546A (zh) 2020-06-30
JP7141327B2 (ja) 2022-09-22
US20200201519A1 (en) 2020-06-25

Similar Documents

Publication Publication Date Title
JP7141327B2 (ja) 情報処理装置
KR102061362B1 (ko) 확장형 통신 서비스를 위한 동적인 내비게이션 바
JP5779842B2 (ja) ゲーム運営を制御するためのユーザインターフェース提供方法
US9813768B2 (en) Configured input display for communicating to computational apparatus
KR102061363B1 (ko) 확장형 통신 서비스를 위한 동적인 내비게이션 바를 도킹 및 언도킹하는 기법
Von Zadow et al. Sleed: Using a sleeve display to interact with touch-sensitive display walls
US20100293501A1 (en) Grid Windows
US10969833B2 (en) Method and apparatus for providing a three-dimensional data navigation and manipulation interface
US20150067540A1 (en) Display apparatus, portable device and screen display methods thereof
JP2013504793A (ja) ズーミング・グラフィカル・ユーザー・インターフェース
JP2017532681A (ja) 異種アプリケーションタブ
US20090040179A1 (en) Graphic user interface device and method of displaying graphic objects
US20140337705A1 (en) System and method for annotations
Brudy et al. Curationspace: Cross-device content curation using instrumental interaction
US9940014B2 (en) Context visual organizer for multi-screen display
US20120179963A1 (en) Multi-touch electronic device, graphic display interface thereof and object selection method of multi-touch display
JP2017157055A (ja) 表示制御装置
Langner et al. Content sharing between spatially-aware mobile phones and large vertical displays supporting collaborative work
US20160054879A1 (en) Portable electronic devices and methods for operating user interfaces
JP6209868B2 (ja) 情報端末、情報処理プログラム、情報処理システム、及び情報処理方法
JP7256665B2 (ja) 情報処理装置
JP7152979B2 (ja) 情報処理装置
JP2016149036A (ja) タッチ操作入力装置
JP2020187666A (ja) タッチパネル入力表示装置
TW514818B (en) Computer system for displaying object images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210922

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220909

R150 Certificate of patent or registration of utility model

Ref document number: 7141327

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150