JP2015138291A - 入力制御装置、入力制御方法及びプログラム - Google Patents

入力制御装置、入力制御方法及びプログラム Download PDF

Info

Publication number
JP2015138291A
JP2015138291A JP2014008031A JP2014008031A JP2015138291A JP 2015138291 A JP2015138291 A JP 2015138291A JP 2014008031 A JP2014008031 A JP 2014008031A JP 2014008031 A JP2014008031 A JP 2014008031A JP 2015138291 A JP2015138291 A JP 2015138291A
Authority
JP
Japan
Prior art keywords
input
information
area
unit
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014008031A
Other languages
English (en)
Other versions
JP2015138291A5 (ja
JP6305073B2 (ja
Inventor
哲郎 北荘
Tetsuro Kitasho
哲郎 北荘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014008031A priority Critical patent/JP6305073B2/ja
Priority to US14/599,332 priority patent/US20150205434A1/en
Publication of JP2015138291A publication Critical patent/JP2015138291A/ja
Publication of JP2015138291A5 publication Critical patent/JP2015138291A5/ja
Application granted granted Critical
Publication of JP6305073B2 publication Critical patent/JP6305073B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】複数のユーザがタッチディスプレイを共有して操作する際の利便性を向上させることを目的とする。【解決手段】入力画面に同時に行われた複数の入力それぞれの入力位置を取得する入力位置取得手段と、入力画面上に存在する複数のオブジェクトそれぞれのオブジェクト位置を取得するオブジェクト位置取得手段と、オブジェクト位置に基づいて、複数のオブジェクトそれぞれに対応する、入力画面上の複数の操作領域を決定する領域決定手段と、入力位置及び操作領域に基づいて、複数の入力をオブジェクト毎に分類する分類手段とを有する。【選択図】図2

Description

本発明は、入力制御装置、入力制御方法及びプログラムに関する。
従来、大型の1つのタッチスクリーンディスプレイを複数人で共有して操作する技術が知られている。このような技術においては、例えば、ダブルクリックやカットアンドペーストのように連続する操作が異なるユーザによりなされたものと誤認識された場合には、ユーザが意図した処理と異なる処理が行われてしまう。そこで、タッチスクリーンを制御する情報処理装置は、各操作がいずれのユーザによるものかを特定する必要がある。
ユーザ毎の操作を管理する技術としては、タッチスクリーンディスプレイ上に、ユーザ毎に独立して操作可能な領域を形成するものが知られている。例えば、特許文献1には、ユーザ操作に応じて、タッチスクリーンディスプレイ上の領域を形成、レイアウトする技術が開示されている。
特開2006−65558号公報
しかしながら、より快適な環境において、タッチスクリーンディスプレイを複数人で共有する際のユーザの利便性をさらに向上させることが望まれている。
本発明はこのような問題点に鑑みなされたもので、複数のユーザがタッチディスプレイを共有して操作する際の利便性を向上させることを目的とする。
そこで、本発明は、入力制御装置であって、入力画面に同時に行われた複数の入力それぞれの入力位置を取得する入力位置取得手段と、前記入力画面上に存在する複数のオブジェクトそれぞれのオブジェクト位置を取得するオブジェクト位置取得手段と、前記オブジェクト位置に基づいて、前記複数のオブジェクトそれぞれに対応する、前記入力画面上の複数の操作領域を決定する領域決定手段と、前記入力位置及び前記操作領域に基づいて、前記複数の入力をオブジェクト毎に分類する分類手段とを有する。
本発明によれば、複数のユーザがタッチディスプレイを共有して操作する際の利便性を向上させることができる。
入力制御装置を示す図である。 入力制御装置を示す図である。 コンテンツのデータ構成の一例を示す図である。 イメージデータの表示例を示す図である。 領域決定処理を示すフローチャートである。 オブジェクト情報のデータ構成の一例を示す図である。 領域情報のデータ構成の一例を示す図である。 イメージデータの表示例を示す図である。 入力制御処理を示すフローチャートである。 入力情報のデータ構成の一例を示す図である。 入力情報分類処理を示すフローチャートである。 オブジェクト別入力情報のデータ構成の一例を示す図である。 コンテンツ更新処理を示すフローチャートである。
以下、本発明の実施形態について図面に基づいて説明する。
図1は、実施形態にかかる入力制御装置100のハードウェア構成を示す図である。入力制御装置100は、CPU101と、ROM102と、RAM103と、HDD104と、タッチディスプレイ105と、ネットワークI/F部106と、カメラ107とを有している。CPU101は、ROM102に記憶された制御プログラムを読み出して各種処理を実行する。RAM103は、CPU101の主メモリ、ワークエリア等の一時記憶領域として用いられる。HDD104は、画像データや各種プログラム等各種情報を記憶する。
タッチディスプレイ105は、表示画面を有し、各種情報を表示する。タッチディスプレイ105はまた、入力画面を有し、ユーザによる指やペンによる接触操作を検知する。本実施形態にかかる入力制御装置100のタッチディスプレイ105は、例えば、マルチタッチ型入力デバイスであり、複数のユーザにより同時に入力が行われた場合に、各入力を検知することができる。タッチディスプレイ105は、タッチ入力が行われた場合に、タッチ入力のタッチディスプレイ105上における位置を検出し、検出した位置を示す位置情報をCPU101に送る。
カメラ107は、画像を撮像する。本実施形態にかかるカメラ107は、タッチディスプレイ105を含む撮影範囲の画像を撮像する。例えば、ユーザが所持する携帯電話等のオブジェクトをタッチディスプレイ105上に置いたとする。この場合、カメラ107は、オブジェクトとタッチディスプレイ105とを含む画像を撮像する。なお、カメラ107は、動画及び静止画のいずれを撮像してもよい。ネットワークI/F部106は、ネットワークを介して無縁により外部装置との通信処理を行う。具体的には、ネットワークI/F部106は、Near field communication(NFC)により、近距離無線通信を行う。
なお、後述する入力制御装置100の機能や処理は、CPU101がROM102又はHDD104に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。
図2は、入力制御装置100の機能構成を示す図である。入力制御装置100は、入力情報生成部201と、オブジェクト位置特定部202と、オブジェクトID取得部203と、オブジェクト情報生成部204と、デバイス情報格納部205と、領域決定部206と、入力分類部207とを有している。入力制御装置100はまた、コンテンツDB208と、アクセス部209と、表示処理部210とを有している。なお、以下においては、各部の主な処理について説明する。各部の詳細な処理については、後に詳述する。
入力情報生成部201は、タッチディスプレイ105において、タッチ入力が検出された場合に、タッチディスプレイ105から入力位置を取得する。ここで、タ入力位置は、タッチディスプレイ105上における入力位置を示す情報である。そして、入力情報生成部201は、入力位置に基づいて、入力情報を生成する。
オブジェクト位置特定部202は、タッチディスプレイ105上にオブジェクトが存在する場合に、オブジェクト位置を特定する。ここで、オブジェクトは、ネットワークI/F部106と通信可能な携帯型の情報処理装置である。また、他の例としては、オブジェクトは、携帯型の情報処理装置が取り付けられた物体であってもよい。オブジェクト位置は、タッチディスプレイ105の、タッチディスプレイ105上における位置である。
具体的には、オブジェクト位置特定部202は、カメラ107により得られたタッチディスプレイ105近傍の画像に基づいて、カメラ107の設置位置と画像中のオブジェクトの位置から、オブジェクトの実空間における位置(3次元系の位置)を特定する。なお、オブジェクト位置特定部202が3次元系の位置を特定する処理については、例えば特開平2−199590号公報を参照することができる。さらに、オブジェクト位置特定部202は、特定した位置に基づいて、オブジェクトのタッチディスプレイ105上における2次元系の位置を特定する。
なお、タッチディスプレイ105上に存在するオブジェクトとは、タッチディスプレイ105に接しているオブジェクトだけでなく、例えば、ユーザの手に保持された状態でタッチディスプレイ105上の空間に位置しているようなオブジェクトも含む。オブジェクト位置特定部202は、例えば、タッチディスプレイ105の位置を基準とする基準範囲内に位置するオブジェクトを処理対象のオブジェクトとする。なお、基準範囲は、例えばHDD104等に予め格納されているものとする。
オブジェクトID取得部203は、オブジェクト位置特定部202により特定されたオブジェクト位置に基づいて、オブジェクト位置に位置するオブジェクトのオブジェクトIDを、ネットワークI/F部106を介して、オブジェクトから取得する。オブジェクト情報生成部204は、オブジェクト位置特定部202により特定されたオブジェクト位置及びオブジェクトID取得部203が取得したオブジェクトIDに基づいて、検出された各オブジェクトに対応する複数のオブジェクト情報を生成する。
デバイス情報格納部205は、デバイス情報を格納している。ここで、デバイス情報とは、タッチディスプレイ105の表示領域のサイズを示す情報である。領域決定部206は、複数のオブジェクト情報それぞれとデバイス情報とに基づいて、オブジェクト情報それぞれに対応するオブジェクトを所持するユーザの操作領域を特定する。そして、領域決定部206は、操作領域を示す領域情報を生成する。ここで、操作領域は、タッチディスプレイ105上の領域であり、各ユーザがタッチ操作可能な領域である。領域決定部206はまた、特定した操作領域に基づいて、後述のコンテンツのアクセス権を設定する。入力分類部207は、領域情報に基づいて、入力情報生成部201により生成された入力情報をオブジェクトID毎の入力情報に分類する。
コンテンツDB208は、複数のコンテンツを含むコンテンツ群を格納している。コンテンツは、タッチディスプレイ105に表示されるデータである。アクセス部209は、入力分類部207から受け付けたオブジェクトID毎の入力情報に基づいて、コンテンツDB208のコンテンツを更新する。表示処理部210は、領域情報及びコンテンツに基づいて、タッチディスプレイ105に表示するイメージデータを生成し、これをタッチディスプレイ105に表示する。
図3は、コンテンツのデータ構成の一例を示す図である。コンテンツ群300は、複数のコンテンツ301を有している。各コンテンツ301は、コンテンツイメージ302と、サムネイルイメージ303と、プロパティ304とを有している。コンテンツイメージ302は、グラフィックデータやカメラ107により取得されたデジタルイメージデータである。サムネイルイメージ303は、コンテンツイメージ302を縮小したイメージデータである。
プロパティ304は、サムネイルイメージ303の表示レイアウトに関するサムネイル原点座標305及びサムネイルサイズ306と、コンテンツ301へのアクセスパーミッションに関するコンテンツアクセス権307とを有している。サムネイル原点座標305は、サムネイルイメージ303をタッチディスプレイ105に表示する際のタッチディスプレイ105におけるサムネイルの表示位置を示す座標情報である。サムネイルサイズ306は、サムネイルイメージ303のサイズを示す情報である。表示処理部210は、コンテンツ301のサムネイル原点座標305及びサムネイルサイズ306に基づいて、コンテンツの画像データを生成する。
コンテンツアクセス権307は、領域決定部206により領域情報に基づいて設定される。なお、コンテンツ301のうち、コンテンツアクセス権307以外の情報については、予めコンテンツDB208に格納されているものとする。
図4は、表示処理部210により生成されたイメージデータの表示例を示す図である。図4に示す例においては、タッチディスプレイ105には、コンテンツA〜Eの5つのコンテンツが表示されている。表示処理部210は、図3に示すコンテンツ301のサムネイル原点座標305及びサムネイルサイズ306に基づいて、コンテンツA〜Eの画像を生成し、これらを含むイメージデータを生成する。
図5は、入力制御装置100による、領域決定処理を示すフローチャートである。CPU101は、カメラ107により撮像される画像に基づいて、オブジェクトの有無を監視し、オブジェクトが検出された場合に、領域決定処理を開始する。なお、本実施形態においては、複数のユーザそれぞれが所持する複数のオブジェクトがタッチディスプレイ105上に置かれた場合を例に領域決定処理について説明する。
S500において、CPU101は、検出されたオブジェクトの中から1つのオブジェクトを処理対象として選択する。なお、S500〜S504の処理は、ループ処理であり、CPU101は、検出されたすべてのオブジェクトが処理対象として選択されるまで、S500〜S504の処理を繰り返す。
次に、S501において、オブジェクト位置特定部202は、処理対象の対象オブジェクトのオブジェクト位置を特定する。なお、S501の処理は、入力画面上に存在するオブジェクトのオブジェクト位置を取得するオブジェクト位置取得処理の一例である。次に、S502において、オブジェクトID取得部203は、オブジェクト位置に基づいて、対象オブジェクトのオブジェクトIDを取得する。
次に、S503において、オブジェクト情報生成部204は、オブジェクト位置及びオブジェクトIDに基づいて、対象オブジェクトのオブジェクト情報を生成する。図6は、オブジェクト情報のデータ構成の一例を示す図である。オブジェクト情報601は、オブジェクト位置602及びオブジェクトID603を有している。次に、S504において、CPU101は、検出されたすべてのオブジェクトが対象オブジェクトとして選択されたか否かを確認する。CPU101は、未選択のオブジェクトが存在する場合には、処理をS500へ進める。そして、S500において、未選択のオブジェクトを対象オブジェクトとして選択し、オブジェクト情報を生成する処理を継続する。一方で、CPU101は、すべてのオブジェクトを対象オブジェクトとして選択済みである場合には、処理をS505へ進める。
このように、S500〜S504の処理を繰り返すことにより、オブジェクト情報生成部204は、タッチディスプレイ105上に存在するオブジェクトと同数のオブジェクト情報601を生成する。これにより、図5に示すように、複数のオブジェクト情報601を含むオブジェクト情報群600が得られる。
次に、S505において、CPU101は、図6に示すオブジェクト情報群600の中から1つのオブジェクト情報601を処理対象として選択する。なお、S505〜S508の処理は、ループ処理であり、CPU101は、オブジェクト情報群600に含まれるすべてのオブジェクト情報601が選択されるまで、S505〜S508の処理を繰り返す。
次に、S506において、領域決定部206は、デバイス情報及びS500〜S503において生成されたオブジェクト情報に基づいて、オブジェクト毎(ユーザ毎)の操作領域を決定する(領域決定処理)。具体的には、領域決定部206は、処理対象の対象オブジェクト情報に含まれるオブジェクト位置602を基準とする基準範囲を、対象オブジェクト情報に対応するオブジェクトを所持するユーザの操作領域として決定する。本実施形態においては、基準範囲は、オブジェクト位置を中心とする矩形領域であるものとする。なお、基準範囲に関する情報は、例えばHDD104等に予め格納されているものとする。また、操作領域の形状は、実施形態に限定されるものではない。他の例としては、操作領域の形状は、円形であってもよい。
領域決定部206は、さらに、後述のS504の繰り返し処理において、操作領域間での重なりが生じないような、排他的な複数の操作領域を決定する。例えば、基準範囲に基づいて決定した操作領域が、S505〜S508のループ処理において既に作成済みの操作領域を含むような領域であったとする。この場合には、領域決定部206は、重なりが生じる範囲については、重なり合う2つの操作領域それぞれに対応するオブジェクト位置の中間点を2つの操作領域の境界位置とするように、2つの操作領域を調整する。
次に、S507において、領域決定部206は、決定した操作領域を示す領域情報を生成する。図7は、領域情報のデータ構成の一例を示す図である。領域情報701は、形状情報702、頂点座標703及びオブジェクトID704を有している。形状情報702は、操作領域の形状を示す情報である。本実施形態にかかる形状情報702は、矩形を示す情報である。頂点座標703は、矩形を描画するための頂点位置の座標情報である。オブジェクトIDは、操作領域に対応するオブジェクトのオブジェクトIDである。
領域決定部206は、HDD104等に格納されている基準範囲に関する情報に基づいて、形状情報702を生成し、S503において実際に生成された操作領域の頂点座標を頂点座標703として生成する。領域決定部206はまた、処理対象のオブジェクト情報601に含まれるオブジェクトID603をオブジェクトID704にコピーする。
図5に戻り、S508において、CPU101は、オブジェクト情報群600に含まれるすべてのオブジェクト情報601が選択されたか否かを確認する。CPU101は、未選択のオブジェクト情報601が存在する場合には、処理をS505へ進める。そして、S505において、未選択のオブジェクト情報601を選択し、領域情報を生成する処理を継続する。一方、CPU101は、すべてのオブジェクト情報601を選択済みである場合には、処理をS509へ進める。
このように、S505〜S508の処理を繰り返すことにより、オブジェクト情報群600に含まれるすべてのオブジェクト情報601に対応する複数の領域情報701を生成する。これにより、図7に示すように、複数の領域情報701を含む領域情報群700が得られる。
次に、S509において、領域決定部206は、図3に示すコンテンツ群300の各コンテンツ301のコンテンツアクセス権307を設定する。図3に示すように、コンテンツアクセス権307は、オブジェクトID308と、ユーザアクセス許可309と、オールアクセス許可310とを有している。領域決定部206は、オブジェクトID308にコンテンツ301のアクセス権を有するオブジェクトのオブジェクトIDを設定する。
具体的には、領域決定部206は、コンテンツ301のサムネイルの表示領域が包含される操作領域の領域情報701に含まれるオブジェクトID704をオブジェクトID308に設定する。以降、オブジェクトID308に登録されているオブジェクトIDを登録オブジェクトIDと称することとする。
ユーザアクセス許可309は、オブジェクトID308に設定されている登録オブジェクトIDに対するコンテンツ301のread及びwriteの可否を示す情報である。本実施形態においては、ユーザアクセス許可309には、read及びwriteいずれについても可能が設定されているものとする。
オールアクセス許可310は、オブジェクトID308に設定されている登録オブジェクトID以外のオブジェクトIDに対する、コンテンツ301のread及びwriteの可否を示す情報である。本実施形態においては、オールアクセス許可310には、read可能及びweite不可が設定されているものとする。
すなわち、オブジェクトID308に設定されている登録オブジェクトIDに対応するタッチ入力においては、対応するコンテンツ301のread及びwriteのいずれも許可される。一方、オブジェクトID308のオブジェクトID以外のオブジェクトIDに対応するタッチ入力においては、対応するコンテンツ301のreadは許可されるが、writeは禁止される。
なお、領域決定部206は、サムネイルの表示領域と操作領域の位置関係に基づいて、オブジェクトID308を設定すればよく、具体的な処理については、実施形態に限定されるものではない。他の例としては、領域決定部206は、サムネイルの表示領域のすべてが操作領域に包含された場合にかえて、一部包含された場合に、オブジェクトID704をオブジェクトID308に設定してもよい。
また、サムネイルの表示領域が、複数の操作領域と重なる場合には、領域決定部206は、重なり合う領域の面積が大きい方の操作領域に対応するオブジェクトIDをオブジェクトID308に設定することとする。
表示領域が複数の操作領域と重なる場合の他の例としては、領域決定部206は、いずれの操作領域に対応するオブジェクトID704も設定しないこととしてもよい。表示領域が複数の操作領域と重なる場合のさらに他の例としては、領域決定部206は、readについては、いずれの操作領域に対応するオブジェクトIDからの指示も許可し、writeについては、いずれのオブジェクIDからの指示も禁止してもよい。
次に、S510において、表示処理部210は、コンテンツ群300及び領域情報群700に基づいてイメージデータを生成し、これをタッチディスプレイ105に表示する。図8は、表示処理部210により生成されたイメージデータの表示例を示す図である。図8は、ユーザA,Bの2人のユーザがそれぞれ、自身が所持するオブジェクトA,Bをタッチディスプレイ105上に置いた場合の表示例を示している。
オブジェクトA,Bに対応し、タッチディスプレイ105には、2つの領域枠800,801が表示されている。領域枠800,801は、それぞれオブジェクトA,Bの置かれた位置を基準として、領域決定部206により特定された操作領域の境界線である。
表示処理部210は、それぞれ異なるオブジェクト(オブジェクトA,B)に対して生成された領域情報701に基づいて、図8に示す領域枠800,801をタッチディスプレイ105に表示する。
具体的には、表示処理部210は、オブジェクトAに対応する領域情報701の形状情報702及び頂点座標703により定まる操作領域を示す領域枠800の画像を生成する。同様に、表示処理部210は、オブジェクトBに対応する領域情報701の形状情報702及び頂点座標703に基づいて、領域枠801の画像を生成する。そして、表示処理部210は、これらの画像と、コンテンツの画像とを合成することにより、イメージデータを生成する。
図9は、入力制御装置100による、入力制御処理を示すフローチャートである。CPU101は、タッチディスプレイ105から入力されるタッチ入力の検出結果に基づいて、タッチ入力の有無を監視し、タッチ入力が検出された場合に、入力制御処理を開始する。なお、本実施形態においては、複数のユーザが同時にタッチディスプレイ105に対しタッチ入力を行った場合、すなわち、同時に複数のタッチ入力が行われた場合について説明する。また、本実施形態においては、タッチ入力が、コンテンツのレイアウト変更に係る指示入力である場合を例に説明する。
S900において、CPU101は、複数のタッチ入力の中から1つのタッチ入力を処理対象として選択する。なお、S900〜S903の処理は、ループ処理であり、CPU101は、検出されたすべてのタッチ入力が処理対象として選択されるまで、S900〜S903の処理を繰り返す。
S901において、入力情報生成部201は、タッチディスプレイ105から、処理対象の対象タッチ入力に対応する入力位置を取得する(入力位置取得処理)。次に、S902において、入力情報生成部201は、対象タッチ入力に対する入力情報を生成する。
図10は、入力情報のデータ構成の一例を示す図である。入力情報1001は、ポインティング情報1002及び操作情報1003を含んでいる。操作情報1003は、カット又はペースト等タッチ入力の操作の種類を示す情報である。ポインティング情報1002は、時刻1004及び入力座標1005を含んでいる。時刻1004は、タッチ入力が行われた時刻を示す情報である。入力座標1005は、タッチ入力のタッチディスプレイ105上における入力位置の座標値(x,y)である。
入力情報生成部201は、タッチディスプレイ105から入力位置を取得した時刻を示す情報を時刻1004として生成し、入力位置及びタッチディスプレイ105の表示内容等に基づいて、操作情報1003を生成することにより、入力情報を生成する。
図9に戻り、S903において、CPU101は、検出されたすべてのタッチ入力が対象タッチ入力として選択されたか否かを確認する。CPU101は、未選択のタッチ入力が存在する場合には、処理をS900へ進める。そして、S900において、CPU101は、未選択のタッチ入力を選択し、入力情報を生成する処理を継続する。一方で、CPU101は、すべてのタッチ入力が選択済みである場合には、処理をS904へ進める。
以上の繰り返し処理により、複数のタッチ入力それぞれに対応する複数の入力情報1001が生成される。これにより、入力情報生成部201は、図10に示すように、複数の入力情報1001を含む入力情報群1000を得る。
S904において、入力分類部207は、領域情報に基づいて、入力情報群1000に含まれる各入力情報1001をオブジェクト別の入力情報に分類する(分類処理)。
図11は、入力情報分類処理(S904)における詳細な処理を示すフローチャートである。S1100において、CPU101は、図10に示す入力情報群1000から1つの入力情報1001を処理対象の対象入力情報として選択する。なお、S1100〜S1106の処理は、ループ処理であり、CPU101は、入力情報群1000に含まれるすべての入力情報1001が処理対象として選択されるまで、S1100〜S1106の処理を繰り返す。
次に、S1101において、CPU101は、図7に示す領域情報群700から1つの領域情報701を処理対象の対象領域情報として選択する。なお、S1101〜S1105の処理は、ループ処理であり、CPU101は、領域情報群700に含まれるすべての領域情報701が処理対象として選択されるまで、S1101〜S1105の処理を繰り返す。
次に、S1102において、入力分類部207は、対象入力情報及び対象領域情報に基づいて、対象タッチ入力と対象操作領域の重なり判定を行う。ここで、対象タッチ入力は、対象入力情報に対応するタッチ入力である。また、対象操作領域は、対象領域情報に含まれる形状情報702及び頂点座標703により定まる操作領域である。具体的には、入力分類部207は、対象タッチ入力が対象操作領域に含まれるか否かを判定する。
入力分類部207は、重なりがあると判定した場合には(S1103でYes)、処理をS1104へ進める。入力分類部207は、重なりがないと判定した場合には(S1103でNo)、処理をS1105へ進める。
S1104において、入力分類部207は、対象入力情報に、対象領域情報に含まれるオブジェクトID704を付与し、オブジェクトIDと対象入力情報とを含むオブジェクト別入力情報を生成する。図12は、オブジェクト別入力情報のデータ構成の一例を示す図である。オブジェクト別入力情報1201は、入力情報1202と、オブジェクトID1203とを有している。入力情報1202は、入力情報1001と同じ情報である。すなわち、入力情報1202は、ポインティング情報1204と、操作情報1205と、時刻1206と、入力座標1207とを有している。
図11に戻り、S1104において、入力分類部207は、対象入力情報(入力情報1001)を入力情報1202とし、対象領域情報(領域情報701)に含まれるオブジェクトID704をオブジェクトID1203として生成する。これにより、オブジェクト別入力情報1201が生成される。
次に、S1105において、CPU101は、領域情報群700に含まれるすべての領域情報701が選択されたか否かを確認する。CPU101は、未選択の領域情報701が存在する場合には、処理をS1101へ進める。そして、S1101において、未選択の領域情報701を選択し、オブジェクト別入力情報を生成する処理を継続する。一方で、CPU101は、すべての領域情報701を選択済みである場合には、処理をS1106へ進める。
S1106において、CPU101は、入力情報群1000に含まれるすべての入力情報1001が選択されたか否かを確認する。CPU101は、未選択の入力情報1001が存在する場合には、処理をS1100へ進める。そして、S1100において、未選択の入力情報1001を選択し、オブジェクト別入力情報を生成する処理を継続する。一方で、CPU101は、すべての入力情報1001を選択済みである場合には、入力情報分類処理(S904)を終了し、図9に示すS905に処理を進める。
以上の繰り返し処理により、入力情報群1000に含まれる複数の入力情報1001から複数のオブジェクト別入力情報1201が生成され、図12に示すように、複数のオブジェクト別入力情報1201を含むオブジェクト別入力情報群1200が得られる。
図9のS905において、アクセス部209は、タッチ入力によりCPU101が受け付けたレイアウト変更指示に従い、コンテンツを更新する。図13は、コンテンツ更新処理(S905)における詳細な処理を示すフローチャートである。S1300において、CPU101は、オブジェクト別入力情報群1200から1つのオブジェクト別入力情報1201を処理対象の対象オブジェクト別入力情報として選択する。なお、S1300〜S1308の処理は、ループ処理であり、CPU101は、オブジェクト別入力情報群1200に含まれるすべてのオブジェクト別入力情報1201が処理対象として選択されるまで、S1300〜S1308の処理を繰り返す。
次に、S1301において、CPU101は、図3に示すコンテンツ群300から1つのコンテンツ301を処理対象の対象コンテンツとして特定する。なお、S1301〜S1307の処理は、ループ処理であり、CPU101は、コンテンツ群300に含まれるすべてのコンテンツ301が処理対象として選択されるまで、S1301〜S1307の処理を繰り返す。
次に、S1302において、アクセス部209は、対象オブジェクト別入力情報及び対象コンテンツに基づいて、対象タッチ入力と、対象サムネイルの重なり判定を行う。ここで、対象タッチ入力は、対象オブジェクト別入力情報に対応するタッチ入力である。また、対象サムネイルは、対象コンテンツに対応して、タッチディスプレイ105に表示されているサムネイルである。
具体的には、アクセス部209は、対象オブジェクト別入力情報に含まれるポインティング情報1204の入力座標1207と、対象コンテンツに含まれるサムネイル原点座標305と、サムネイルサイズ306とを参照する。そして、アクセス部209は、対象タッチ入力が対象サムネイルの表示領域に含まれるか否か、すなわち、対象タッチ入力が対象サムネイルを指定するものであるか否かを判定する。
アクセス部209は、重なりがあると判定した場合には(S1303でYes)、処理をS1304へ進める。アクセス部209は、重なりがないと判定した場合には(S1303でNo)、処理をS1307へ進める。次に、S1304において、アクセス部209は、アクセス権判定を行う。具体的には、アクセス部209は、対象オブジェクト別入力情報のオブジェクトID1203が対象コンテンツのコンテンツアクセス権307においてアクセス許可されているか否かを判定する。
アクセス部209は、アクセス権があると判定した場合には(S1305でYes)、処理をS1306へ進める。アクセス部209は、アクセス権がないと判定した場合には(S1305でNo)、処理をS1307へ進める。S1306において、アクセス部209は、対象オブジェクト別入力情報の操作情報1205に基づいて、コンテンツ301を更新する。本実施形態においては、アクセス部209は、操作情報1205としてのレイアウト変更指示に従い、コンテンツ301のサムネイル原点座標305を更新する。
S1307において、CPU101は、コンテンツ群300に含まれるすべてのコンテンツ301が選択されたか否かを確認する。CPU101は、未選択のコンテンツ301が存在する場合には、処理をS1301へ進める。そして、S1301において、未選択のコンテンツ301を選択し、コンテンツプロパティを更新する処理を継続する。一方で、CPU101は、すべてのコンテンツ301を選択済みである場合には、処理をS1308へ進める。
S1308において、CPU101は、オブジェクト別入力情報群1200に含まれるすべてのオブジェクト別入力情報1201が選択されたか否かを確認する。CPU101は、未選択のオブジェクト別入力情報1201が存在する場合には、処理をS1300へ進める。そして、S1300において、未選択のオブジェクト別入力情報1201を選択し、コンテンツプロパティを更新する処理を継続する。一方で、CPU101は、すべてのオブジェクト別入力情報1201を選択済みである場合には、コンテンツ更新処理(S905)を終了し、図9に示す入力制御処理を終了する。
次に、図8を参照しつつ、入力制御処理について、より具体的に説明する。図8に示すように、領域枠800,801が表示された場合には、入力制御装置100は、領域枠800,801へのタッチ入力を、それぞれオブジェクトA,Bに対応するユーザA,Bによりなされた独立した操作として受け付ける。
以上のように、本実施形態にかかる入力制御装置100は、複数のオブジェクトそれぞれに対応する複数の操作領域を決定し、入力位置と操作領域の関係に基づいて、入力情報を分類する。すなわち、入力制御装置100は、複数のオブジェクトそれぞれに対応する複数のユーザによるタッチ入力を自動的に分類することができる。これにより、入力制御装置100は、複数のユーザがタッチディスプレイを共有して操作する際の利便性を向上させることができる。
実施形態にかかる入力制御装置100の第1の変更例としては、領域決定部206は、オブジェクト位置に加えて又はオブジェクトの位置替えて、オブジェクトの向きに基づいて、操作領域を決定してもよい。例えば、領域決定部206は、オブジェクトの正面が向いている方向に存在する領域を操作領域として決定してもよい。この場合、CPU101は、カメラ107により得られた画像に基づいて、オブジェクトの向きを特定する。なお、オブジェクトの向きを特定する処理については、例えば特開平4−299467号公報を参照することができる。
第2の変更例としては、領域決定部206は、オブジェクトにおいて起動しているアプリケーションの種類に基づいて、操作領域の面積を決定してもよい。例えば、領域決定部206は、ビューワソフトが起動しているオブジェクトに対し、ビューワソフトが起動していないオブジェクトに比べて広い操作領域を決定してもよい。ビューワソフト起動中は、多くのコンテンツを参照することが予想されるためである。また、他の例としては、領域決定部206は、編集ソフトが起動しているオブジェクトに対し、編集ソフトが起動していないオブジェクトに比べて狭い操作領域を決定してもよい。編集ソフト起動中は、コンテンツを参照することが少ないと予想されるためである。なお、この場合には、CPU101は、ネットワークI/F部106によるNFCを介して、核オブジェクトにおいて起動中のアプリケーションを示すアプリケーション情報を取得するものとする(アプリケーション情報取得処理)。
第3の変更例としては、領域決定部206は、タッチディスプレイ105上に存在するオブジェクト間の距離が閾値以下である場合にのみ、操作領域を決定してもよい。そして、入力分類部207は、操作領域が決定された場合、すなわち、オブジェクト間の距離が閾値以下である場合にのみ、入力情報の分類を行う。ここで、閾値は、予めHDD104等に格納されているものとする。これにより、複数ユーザによるタッチ入力が一連の操作と誤認識される可能性が高い場合にのみ、入力情報の分類処理を行うことができる。
第4の変更例としては、入力制御装置100は、外部機器からオブジェクト位置を取得してもよい(オブジェクト位置取得処理)。例えば、カメラを備える外部機器において、オブジェクト位置が特定され、特定されたオブジェクト位置が入力制御装置100に送信される。
<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
以上、上述した各実施形態によれば、複数のユーザがタッチディスプレイを共有して操作する際の利便性を向上させることができる。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
100 入力制御装置、101 CPU、105 タッチディスプレイ、201 入力情報生成部、204 オブジェクト情報生成部、206 領域決定部、207 入力分類部

Claims (6)

  1. 入力画面に同時に行われた複数の入力それぞれの入力位置を取得する入力位置取得手段と、
    前記入力画面上に存在する複数のオブジェクトそれぞれのオブジェクト位置を取得するオブジェクト位置取得手段と、
    前記オブジェクト位置に基づいて、前記複数のオブジェクトそれぞれに対応する、前記入力画面上の複数の操作領域を決定する領域決定手段と、
    前記入力位置及び前記操作領域に基づいて、前記複数の入力をオブジェクト毎に分類する分類手段と
    を有する入力制御装置。
  2. 前記オブジェクトの向きを特定する向き特定手段をさらに有し、
    前記領域決定手段は、前記向きに基づいて、前記オブジェクトに対応する前記操作領域を決定する請求項1に記載の入力制御装置。
  3. 前記オブジェクトは、情報処理装置であって、
    前記情報処理装置において起動中のアプリケーションを示すアプリケーション情報を取得するアプリケーション情報取得手段をさらに有し、
    前記領域決定手段は、前記アプリケーション情報に基づいて、前記オブジェクトに対応する前記操作領域を決定する請求項1又は2に記載の入力制御装置。
  4. 前記領域決定手段は、前記複数のオブジェクト間の距離が閾値以下である場合に、前記操作領域を決定する請求項1乃至3何れか1項に記載の入力制御装置。
  5. 入力制御装置が実行する入力制御方法であって、
    入力画面に同時に行われた複数の入力それぞれの入力位置を取得する入力位置取得ステップと、
    前記入力画面上に存在する複数のオブジェクトそれぞれのオブジェクト位置を取得するオブジェクト位置取得ステップと、
    前記オブジェクト位置に基づいて、前記複数のオブジェクトそれぞれに対応する、前記入力画面上の複数の操作領域を決定する領域決定ステップと、
    前記入力位置及び前記操作領域に基づいて、前記複数の入力をオブジェクト毎に分類する分類ステップと
    を含む入力制御方法。
  6. コンピュータを、
    入力画面に同時に行われた複数の入力それぞれの入力位置を取得する入力位置取得手段と、
    前記入力画面上に存在する複数のオブジェクトそれぞれのオブジェクト位置を取得するオブジェクト位置取得手段と、
    前記オブジェクト位置に基づいて、前記複数のオブジェクトそれぞれに対応する、前記入力画面上の複数の操作領域を決定する領域決定手段と、
    前記入力位置及び前記操作領域に基づいて、前記複数の入力をオブジェクト毎に分類する分類手段と
    として機能するためのプログラム。
JP2014008031A 2014-01-20 2014-01-20 制御装置、制御方法及びプログラム Active JP6305073B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014008031A JP6305073B2 (ja) 2014-01-20 2014-01-20 制御装置、制御方法及びプログラム
US14/599,332 US20150205434A1 (en) 2014-01-20 2015-01-16 Input control apparatus, input control method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014008031A JP6305073B2 (ja) 2014-01-20 2014-01-20 制御装置、制御方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2015138291A true JP2015138291A (ja) 2015-07-30
JP2015138291A5 JP2015138291A5 (ja) 2017-02-23
JP6305073B2 JP6305073B2 (ja) 2018-04-04

Family

ID=53544782

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014008031A Active JP6305073B2 (ja) 2014-01-20 2014-01-20 制御装置、制御方法及びプログラム

Country Status (2)

Country Link
US (1) US20150205434A1 (ja)
JP (1) JP6305073B2 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006065558A (ja) * 2004-08-26 2006-03-09 Canon Inc 入力表示装置
JP2009534751A (ja) * 2006-04-20 2009-09-24 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. デジタル装置を対話式表示面とインタフェースさせる方法及びシステム
US20100079414A1 (en) * 2008-09-30 2010-04-01 Andrew Rodney Ferlitsch Apparatus, systems, and methods for authentication on a publicly accessed shared interactive digital surface
JP2011054069A (ja) * 2009-09-04 2011-03-17 Sharp Corp 表示装置及びプログラム
JP2011154546A (ja) * 2010-01-27 2011-08-11 Canon Inc 情報入力装置、情報入力方法及びプログラム
JP2012513047A (ja) * 2008-09-30 2012-06-07 マイクロソフト コーポレーション 物理オブジェクトと対話型表面との併用
WO2013089195A1 (ja) * 2011-12-14 2013-06-20 Necカシオモバイルコミュニケーションズ株式会社 携帯端末装置とそのrfidアンテナ共振周波数調整方法
JP2013125551A (ja) * 2011-12-15 2013-06-24 Toshiba Corp 情報処理装置、表示プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7970870B2 (en) * 2005-06-24 2011-06-28 Microsoft Corporation Extending digital artifacts through an interactive surface
US8063888B2 (en) * 2007-02-20 2011-11-22 Microsoft Corporation Identification of devices on touch-sensitive surface
US8125458B2 (en) * 2007-09-28 2012-02-28 Microsoft Corporation Detecting finger orientation on a touch-sensitive device
US8289288B2 (en) * 2009-01-15 2012-10-16 Microsoft Corporation Virtual object adjustment via physical object detection
WO2012116464A1 (en) * 2011-02-28 2012-09-07 Hewlett-Packard Company User interfaces based on positions
US20120290943A1 (en) * 2011-05-10 2012-11-15 Nokia Corporation Method and apparatus for distributively managing content between multiple users

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006065558A (ja) * 2004-08-26 2006-03-09 Canon Inc 入力表示装置
JP2009534751A (ja) * 2006-04-20 2009-09-24 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. デジタル装置を対話式表示面とインタフェースさせる方法及びシステム
US20100079414A1 (en) * 2008-09-30 2010-04-01 Andrew Rodney Ferlitsch Apparatus, systems, and methods for authentication on a publicly accessed shared interactive digital surface
JP2012513047A (ja) * 2008-09-30 2012-06-07 マイクロソフト コーポレーション 物理オブジェクトと対話型表面との併用
JP2011054069A (ja) * 2009-09-04 2011-03-17 Sharp Corp 表示装置及びプログラム
JP2011154546A (ja) * 2010-01-27 2011-08-11 Canon Inc 情報入力装置、情報入力方法及びプログラム
WO2013089195A1 (ja) * 2011-12-14 2013-06-20 Necカシオモバイルコミュニケーションズ株式会社 携帯端末装置とそのrfidアンテナ共振周波数調整方法
JP2013125551A (ja) * 2011-12-15 2013-06-24 Toshiba Corp 情報処理装置、表示プログラム

Also Published As

Publication number Publication date
US20150205434A1 (en) 2015-07-23
JP6305073B2 (ja) 2018-04-04

Similar Documents

Publication Publication Date Title
US11144177B2 (en) Application execution method by display device and display device thereof
US11042294B2 (en) Display device and method of displaying screen on said display device
US9894115B2 (en) Collaborative data editing and processing system
CN112243583B (zh) 多端点混合现实会议
CN103500066B (zh) 一种适用于触屏设备的截图装置和方法
US20160378291A1 (en) Object group processing and selection gestures for grouping objects in a collaboration system
JP6364893B2 (ja) 端末装置、電子ホワイトボードシステム、電子ホワイトボードの入力支援方法、及びプログラム
US10747391B2 (en) Method and device for executing applications through application selection screen
US20160012612A1 (en) Display control method and system
WO2013118373A1 (ja) 画像処理装置、画像処理方法及びプログラム
US10565299B2 (en) Electronic apparatus and display control method
EP2728456A2 (en) Method and apparatus for controlling virtual screen
JP6433923B2 (ja) デバイスへの特定のオブジェクト位置の提供
CN116009755A (zh) 针对图像的多区域检测
JP2014186392A (ja) 画像処理装置及びプログラム
KR20210083016A (ko) 전자 장치 및 그의 제어 방법
JP2014013487A (ja) 表示装置およびプログラム
JP6790630B2 (ja) ドキュメント共有方法、プログラム及びドキュメント共有装置
US10057315B2 (en) Communication support system, information processing apparatus, control method, and storage medium that display an output image obtained by superposing a reference image over a captured image
JP2011238040A (ja) プログラムおよび電子機器
JP6305073B2 (ja) 制御装置、制御方法及びプログラム
JP2022037082A (ja) 情報処理装置、情報処理方法およびプログラム
JP2014134919A (ja) 表示装置及び表示方法
US11675496B2 (en) Apparatus, display system, and display control method
JP2015079291A (ja) 情報処理装置、情報処理システム及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170117

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180306

R151 Written notification of patent or utility model registration

Ref document number: 6305073

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151