JP7019967B2 - 表示制御プログラム、表示制御方法及び表示制御装置 - Google Patents

表示制御プログラム、表示制御方法及び表示制御装置 Download PDF

Info

Publication number
JP7019967B2
JP7019967B2 JP2017105567A JP2017105567A JP7019967B2 JP 7019967 B2 JP7019967 B2 JP 7019967B2 JP 2017105567 A JP2017105567 A JP 2017105567A JP 2017105567 A JP2017105567 A JP 2017105567A JP 7019967 B2 JP7019967 B2 JP 7019967B2
Authority
JP
Japan
Prior art keywords
objects
identification information
display control
display
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017105567A
Other languages
English (en)
Other versions
JP2018200614A (ja
Inventor
夏樹 原井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017105567A priority Critical patent/JP7019967B2/ja
Priority to US15/983,977 priority patent/US10698574B2/en
Publication of JP2018200614A publication Critical patent/JP2018200614A/ja
Application granted granted Critical
Publication of JP7019967B2 publication Critical patent/JP7019967B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03542Light pens for emitting or receiving light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、表示制御プログラム、表示制御方法及び表示制御装置に関する。
近年、電子ペン、各種センサ、プロジェクタ等から構成されるヒューマンコンピュータインタラクションシステム、いわゆるインタラクティブホワイトボードが提案されている(例えば、特許文献1を参照。)。
電子ペンを使ったインタラクティブホワイトボードでは、電子ペンのボード平面内での移動軌跡がセンサにより検出され、描画された図形や文字がボード平面上に表示される。また、電子ペンのボード平面内での動線からコンピュータへのコマンドが認識され、コンピュータの動作が制御される。
特開2016-194894号公報 特開2010-122987号公報 特開2013-54405号公報 特開2007-233511号公報
しかしながら、インタラクティブホワイトボードでは、机や壁面に表示された複数の付箋や画像等のオブジェクトを複数のユーザで共有する。したがって、オブジェクトが机や壁面のインタラクティブホワイトボード上に次々に配置され、かなりの数になる場合がある。そうすると、多数のオブジェクトが重なり合い、目的のオブジェクトが他のオブジェクトの下に隠れてしまい、机上等に表示されているオブジェクトから目的となるオブジェクトを見つけ難くなる場合があり、作業の効率を悪くする。
これに対して、インタラクティブホワイトボード上に複数のオブジェクトを重ねずに広範囲に表示すると、他のユーザの作業領域が不足してしまう。そこで、複数のユーザの作業領域を確保するために、インタラクティブホワイトボードを広範囲に設定すると、特定のオブジェクトを選択するときに、あるユーザからは手が届かない場合がある。
1つの側面では、本発明は、対象のオブジェクトを簡単に探索することを目的とする。
1つの実施態様では、特定の動作を検出すると、表示エリアに表示された複数のオブジェクトのうち、条件を満たす複数のオブジェクトを特定し、複数のオブジェクトと複数のオブジェクトの識別情報と複数のオブジェクトの位置情報とを含むオブジェクトに関する情報を記憶する記憶部を参照して、特定した前記複数のオブジェクトに対応する複数の識別情報と、特定した前記複数のオブジェクトの表示位置を示す位置情報と、を取得し、取得した前記複数のオブジェクトの位置情報に基づき、取得した前記複数の識別情報間の相対位置関係を決定し、取得した前記複数の識別情報を、決定した前記相対位置関係で前記表示エリアに表示する、処理をコンピュータに実行させ、前記複数の識別情報間の相対位置関係は、前記複数のオブジェクトの表示位置の相対的な関係に対応する、ことを特徴とする表示制御プログラムが提供される。
1つの側面では、本発明は、対象のオブジェクトを簡単に探索することができる。
一実施形態に係る表示制御システムの全体構成の一例を示す図。 一実施形態に係る表示制御装置の機能構成の一例を示す図。 一実施形態に係る特定操作登録テーブルの一例を示す図。 一実施形態に係るオブジェクト情報テーブルの一例を示す図。 一実施形態に係るサムネイル表示順テーブルの一例を示す図。 一実施形態に係る隣接オブジェクトテーブルの一例を示す図。 一実施形態に係るクラスタ情報テーブルの一例を示す図。 一実施形態に係る表示制御処理の一例を示すフローチャート。 一実施形態に係る隣接オブジェクト判定処理の一例を示すフローチャート。 一実施形態に係るサムネイル表示順序決定処理の一例を示すフローチャート。 一実施形態に係る表示制御処理を説明するための図。 一実施形態に係る隣接オブジェクトのサムネイル表示を説明するための図。 一実施形態の変形例に係る表示制御処理の一例を示すフローチャート。 一実施形態の変形例に係る表示制御処理を説明するための図。
以下、本発明の実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省く。
[表示制御システムの全体構成]
まず、本発明の一実施形態に係る表示制御システムの構成の一例について、図1を参照しながら説明する。図1は、一実施形態に係る表示制御システムの全体構成の一例を示す。本実施形態に係る表示制御システムでは、会議室60の壁65及び机70がオブジェクトを表示するスクリーン、すなわち、インタラクティブホワイトボードの一例として示されている。
ただし、会議室60の天井部や床等、会議室60の全体がインタラクティブホワイトボードになり得る。また、表示制御システムによりオブジェクトが表示される領域は、会議室60に限られず、学校、会社、病院等の建物の壁面、道、駅の壁面、家具等あらゆる場所や物であり得る。
会議室60には、プロジェクタ40及びカメラ20を組み合わせた装置が複数設置され、会議室60全体の空間を一つのウィンドウシステムとして機能させる。これにより、複数のユーザA~Eは、インタラクティブホワイトボードに表示された画像や付箋等のオブジェクト情報を共有することができる。カメラ20は、ペンデバイスから出力される赤外線を認識可能なセンサの一例である。
例えば、ユーザAが、ペンデバイス50aを使ってインタラクティブホワイトボード(以下、「ボード」という。)の表示エリアに所定の軌跡を入力する操作を行うと、天井に設置されたカメラ20が、ペンデバイス50aから出力される赤外線の移動軌跡K1を検出する。表示制御装置10は、カメラ20が映した画像を解析し、ペンデバイス50aから出力された赤外線の移動軌跡K1を抽出し、プロジェクタ40を用いてボードの表示エリアに表示する軌跡の座標情報を生成する。生成した座標情報はプロジェクタ40に送られる。これにより、プロジェクタ40を用いて赤外線の移動軌跡K1がボード平面上の表示エリアA1に投影される。机や壁を用いたボードの表示エリアA1、A2・・・を総称して表示エリアともいう。図1では、ボード内に複数の表示エリアA1、A2・・・が設けられている。ただし、表示エリアは、ボード内の投影可能な領域であれば、複数の表示エリアに分けられている必要はない。
カメラ20が検出する特定の動作は、ペンデバイス50a、50dにより入力操作に限られず、例えば、ユーザBのジェスチャ50b、ユーザCの指50cによる入力操作であってもよい。カメラ20は、これらの入力操作を撮影した画像を表示制御装置10に送る。表示制御装置10は、受信したカメラ20の画像を解析し、各操作に応じた処理を実行する。検出する特定の動作には、ペン、指、ジェスチャの他、音声操作等が含まれる。音声検知には、カメラ20に替えてマイク等の音声入力装置が使用され得る。また、プロジェクタ40が投影する情報は、アプリケーションの画像、写真、電子付箋、テキスト等が挙げられる。
カメラ20と表示制御装置10との間及びプロジェクタ40と表示制御装置10との間は、無線又は有線にて接続され、データ通信が可能である。これらの装置間は、直接接続されてもよいし、ネットワークを介して接続されてもよい。例えば会議室60から離れた遠隔地に会議を共有するためのプロジェクタや表示制御装置があって、それらの機器と連携してオブジェクトを所定空間のボードに表示することもできる。
表示制御装置10は、サーバ、パーソナルコンピュータ、タブレット型端末、スマートフォン、PDA(Personal Digital Assistants)等の情報処理装置であり得る。表示制御装置10は、通信I/F101を介して、カメラ20、プロジェクタ40及び会議室60に存在する複数のユーザA~Eの端末30a~30eとデータ通信が可能である。
表示制御装置10は、通信I/F101の他、CPU102、メモリ103、入力装置104、表示装置105及び外部I/F106を有する。
メモリ103は、表示制御装置10の全体を制御するためのプログラム、表示制御装置10に搭載された機能を実現するプログラム及び各種のデータを記憶する。メモリ103は、例えば、ROM(Read Only Memory),RAM(Random Access Memory)、HDD(Hard Disk Drive)等により実現される。ROMは、電源を切っても内部データを保持する不揮発性の半導体メモリである。RAMは、プログラムやデータを一時保持する揮発性の半導体メモリである。HDDは、プログラムやデータを格納する不揮発性の記憶装置である。
CPU102は、表示制御装置10の全体を制御する。また、CPU102は、カメラ20からの画像を取得し、該画像に基づきユーザが操作した入力軌跡を解析する。CPU102は、メモリ103に記憶されている特定操作とコマンドとを対応付けたテーブル(図2の特定操作登録テーブル21)を参照して、入力軌跡に対応する特定操作によって実行されるコマンドを特定する。
また、CPU102は、HDDやROMに記憶された表示制御プログラムや所定のデータをRAM上に読み出し、特定したコマンドに従った処理を実行する。特定したコマンドに従った処理がサムネイル表示処理の場合、特定のオブジェクトの識別情報の表示位置を示す配置情報は、通信I/F101を介してプロジェクタ40に送信される。プロジェクタ40は、配信された特定のオブジェクトの識別情報に従い、複数のオブジェクトの識別情報をボードの表示エリアのうち、ユーザにより指定されたサムネイル表示領域に表示する。
なお、CPU102は、複数のユーザA~Eの位置と各ユーザが所有する端末30a~30eの端末IDとを紐付けて認識し、複数のユーザA~Eの動作を追跡してもよい。また、CPU102は、端末30a~30eのそれぞれから所定のアプリケーションの画面やその他の情報を受信してもよい。CPU102は、端末IDに紐付けられた各ユーザの位置に応じて、アプリケーションの画面やその他の情報をボード上の所定の位置に表示することができる。なお、端末30a~30eは、持ち込み機器の一例であり、持ち込み機器はなくてもよい。
入力装置104は、キーボードやマウスなどを含み、表示制御装置10に各操作信号を入力するために用いられる。表示装置105は、LCD(Liquid crystal Display)モニタ等のディスプレイ、CRT(Cathode Ray Tube)などを含み、各種の処理結果を出力する。
外部I/F106は、外部装置とのインターフェースである。外部装置には、記録媒体106aなどがある。これにより、表示制御装置10は、外部I/F106を介して記録媒体106aの読み取り及び/又は書き込みを行うことができる。記録媒体106aには、CD(Compact Disk)、及びDVD(Digital Versatile Disk)、ならびに、SDメモリカード(SD Memory card)やUSBメモリ(Universal Serial Bus memory)等がある。
[機能構成]
次に、第1実施形態に係る表示制御装置10の機能構成の一例について、図2を参照しながら説明する。図2は、一実施形態に係る表示制御装置10の機能構成の一例を示す。表示制御装置10は、記憶部11、取得部12、特定部13、表示制御部14、通信部15、制御部16及び選択部17を有する。
記憶部11は、特定操作登録テーブル21、オブジェクト情報テーブル22、サムネイル表示順テーブル23、隣接オブジェクトテーブル24及びクラスタ情報テーブル25の各テーブルを記憶する。また、記憶部11は、表示制御プログラム26を記憶する。
図3は、一実施形態に係る特定操作登録テーブル21の一例を示す。特定操作登録テーブル21は、入力操作を識別する操作ID毎に、軌跡及び特定の操作の各情報を対応付けて登録する。例えば、ペンデバイス50aが出力する赤外線の軌跡が「軌跡1」の形状であるとき、その入力操作により特定される操作は「サムネイル表示」となる。よって、ユーザがペンデバイスを用いて「軌跡1」を描くと、カメラが撮影した軌跡1を描く画像が表示制御装置10に送信される。表示制御装置10は、取得した画像を解析し、解析結果を特定操作登録テーブル21に照らし合わせて、軌跡1に対応する特定の操作「サムネイル表示」を選択する。選択した特定の操作「サムネイル表示」は、プロジェクタ40に送信される。これにより、プロジェクタ40から特定の複数のオブジェクトの識別情報が表示される。
図4は、一実施形態に係るオブジェクト情報テーブル22の一例を示す。オブジェクト情報テーブル22は、オブジェクトID毎に、オブジェクトの名前、オブジェクトが存在するレイヤ情報、オブジェクトが表示される座標、幅、種類、内容、所有者、所属画面及び拠点の各情報を対応付けて記憶する。所属画面は、ボード上の表示エリアA1、A2・・・を特定する情報である。
図5は、一実施形態に係るサムネイル表示順テーブル23の一例を示す。サムネイル表示順テーブル23は、サムネイルID毎に、オブジェクトID及びサムネイルの画像の各情報を対応付けて記憶する。
図6は、一実施形態に係る隣接オブジェクトテーブル24の一例を示す。隣接オブジェクトテーブル24は、隣接オブジェクトID毎に、基準オブジェクトと、基準オブジェクトに対する右側隣接オブジェクトまたは下側隣接オブジェクトの各情報を対応付けて記憶する。
図7は、一実施形態に係るクラスタ情報テーブル25の一例を示す。クラスタ情報テーブル25は、クラスタID毎に、クラスタの重心の座標及びオブジェクトリストの各情報を対応付けて記憶する。
表示制御プログラム26は、特定の動作を検出すると会議室60の所定の表示エリアに表示された複数のオブジェクトのうち、条件を満たす複数のオブジェクトを所定の位置関係で、指示された表示位置に応じた位置に表示するための処理をCPU102に実行させる。
取得部12は、カメラ20が撮影した画像を取得する。特定部13は、取得した画像を解析し、撮影された赤外線の軌跡やジェスチャを抽出し、特定操作登録テーブル21を参照して、軌跡やジェスチャに対応する操作を特定する。特定部13は、特定した操作が「サムネイル表示」の動作であることを検出したとき、表示エリアに表示された複数のオブジェクトのうち、条件を満たす複数のオブジェクトを特定する。
取得部12は、オブジェクト情報テーブル22を参照して、特定した複数のオブジェクトに対応する複数のオブジェクトの識別情報と、特定した複数のオブジェクト間の位置関係を示す座標とを取得する。本実施形態では、特定した複数のオブジェクトに対応する複数のオブジェクトの識別情報として、特定した複数のオブジェクトのそれぞれに対応するサムネイル画像を例に挙げて説明する。しかしながら、特定したオブジェクトに対応する識別情報は、これに限らず、他の例としては、特定したオブジェクトに対応するオブジェクトの名前、オブジェクトの内容、オブジェクトの種類、拠点及び所有者であってもよく、これらの情報を任意に組み合わせてもよい。オブジェクトの識別情報は、オブジェクトの画像そのものであってもよいし、オブジェクトの縮小画像であってもよいし、オブジェクトの一部の画像であってもよい。また、オブジェクトの識別情報は、付箋であってもよいし、付箋に書かれたテキストであってもよいし、付箋に書かれたテキストの一部(例えば、先頭文字列等)であってもよい。オブジェクトの識別情報は、ファイルが保存されている保存場所のパスであってもよい。
特定した複数のオブジェクト間の位置関係を示す座標は、特定した複数のオブジェクト間の位置関係を示す位置関係情報の一例であり、図4のオブジェクト情報テーブル22の座標から算出できる。
表示制御部14は、特定した複数のオブジェクトのサムネイル画像を、取得した特定した複数のオブジェクト間の位置関係を示す座標に応じた位置関係で表示エリアに表示する。
通信部15は、カメラ20、端末30a~30e、プロジェクタ40及びその他の機器とデータ通信する。
制御部16は、表示制御装置10の全体を制御する。選択部17は、タッチや特定の操作を検出すると、サムネイル画像の一つを選択する。これにより、サムネイル表示中の選択されたサムネイル画像を閲覧したり編集したりすることができる。
なお、複数のサムネイル画像の表示は、それぞれのサムネイル画像に対応するオブジェクトの移動又は編集のために操作される操作部品である。サムネイル表示された画像(サムネイル画像)の一つがユーザにより選択されると、編集モードに移る。編集モードでは、簡略化されたサムネイル画像から移行してオブジェクトの実際の画像が表示されたり、部分画像から移行して全画像が表示されたり、縮小画像から移行して拡大画像が表示されたりする。編集後の画像は、サムネイル表示の状態に戻ってもよい。
例えば、操作部品が付箋のオブジェクトの場合、編集モードに移ると、選択された付箋のオブジェクトが拡大して表示され、編集可能な状態になるようにしてもよい。
なお、図2は機能に着目したブロック図を描いており、これらの機能ブロックで示した各部のソフトウエアを実行するプロセッサはハードウェアである。
例えば、記憶部11の機能は、例えば、メモリ103により実現され得る。取得部12の機能は、例えば、入力装置104により実現され得る。特定部13、表示制御部14、制御部16及び選択部17の各機能は、例えば、表示制御装置10にインストールされた表示制御プログラム26が、CPU102に実行させる処理により実現され得る。
通信部15の機能は、例えば、通信I/F101により実現され得る。特定操作登録テーブル21、オブジェクト情報テーブル22、サムネイル表示順テーブル23、隣接オブジェクトテーブル24及びクラスタ情報テーブル25の各テーブルに記憶された情報は、メモリ103又はネットワークを介して表示制御装置10に接続されるクラウド上のサーバ等に格納され得る。
[表示制御処理]
次に、本実施形態に係る表示制御処理の一例について図8を参照して説明する。図8は、一実施形態に係る表示制御処理の一例を示すフローチャートである。図9は、一実施形態に係る隣接オブジェクト判定処理の一例を示すフローチャートである。図10は、一実施形態に係るサムネイル表示順序決定処理の一例を示すフローチャートである。図11は、一実施形態に係る表示制御処理を説明するための図である。
図8の表示制御処理が開始されると、取得部12は、カメラ20が撮影した画像データを取得し、画像解析して入力軌跡を取得する(ステップS10)。次に、特定部13は、特定操作登録テーブル21を参照して、取得した入力軌跡に対する操作を特定する(ステップS12)。例えば、図11(a)に示すよう机上の領域をペンデバイスで囲む入力軌跡K1が、図3の特定操作登録テーブル21の例では、軌跡1である場合、特定部13は、その入力操作を「サムネイル表示」という特定の動作であると特定する。
次に、特定部13は、サムネイル表示の操作か否かを判定する(ステップS14)。特定部13は、サムネイル表示の操作でないと判定すると、本処理を終了する。一方、特定部13は、サムネイル表示の操作であると判定すると、入力軌跡の座標より、サムネイル表示領域の座標と幅を決定し、記憶部11に記憶する(ステップS16)。
次に、特定部13は、サムネイル表示領域の幅から、一度に表示するサムネイルの行数と列数を決定し、記憶部11に記憶する(ステップS18)。次に、特定部13は、オブジェクト情報テーブル22から各オブジェクトの座標に基づきクラスタリングを行い、クラスタ情報テーブル25を作成する(ステップS20)。これにより、各オブジェクトの位置情報に応じてオブジェクトがいくつかのクラスタに分類される。次に、以下に示す、隣接オブジェクト判定処理が実行される(ステップS22)。
[隣接オブジェクト判定処理]
図9の隣接オブジェクト判定処理では、まず、表示制御部14は、空の隣接オブジェクトテーブル24を作成する(ステップS30)。次に、表示制御部14は、以下の(1)式を満たすオブジェクトObがあれば、そのうちの一つをオブジェクトOaの右側に隣接するオブジェクトとして、隣接オブジェクトテーブル24にデータを追加する(ステップS32)。
|(Oaの右側のx座標-Obの左側のx座標)|<閾値1、かつ、
|(Oaのy座標-Obのy座標)|<閾値2 ・・・(1)
なお、閾値1及び閾値2は、予め定められ、記憶部11に記憶されている。
ステップS32を実行することで、図6の隣接オブジェクトテーブル24には、隣接オブジェクトIDに対応して基準オブジェクト及び右側隣接オブジェクトの情報が記憶される。
図9に戻り、次に、表示制御部14は、以下の(2)式を満たすオブジェクトObがあれば、そのうちの一つをOaの下側に隣接するオブジェクトとして、隣接オブジェクトテーブル24にデータを追加及び更新する(ステップS34)。
|(Oaの下側のy座標-Obの上側のy座標)|<閾値3、かつ、
|(Oaのx座標-Obのx座標)|<閾値4 ・・・(2)
なお、閾値3及び閾値4は、予め定められ、記憶部11に記憶されている。
ステップS34を実行することで、図6の隣接オブジェクトテーブル24には、隣接オブジェクトIDに対応して基準オブジェクト及び下側隣接オブジェクトの情報が記憶される。
図9に戻り、次に、表示制御部14は、クラスタ情報テーブル25に記憶されたクラスタ内のすべての異なるオブジェクトの組み合わせ{Oa,Ob}についてステップS32及びS34を繰り返し実行したかを判定する(ステップS36)。クラスタ内のすべての異なるオブジェクトの組み合わせ{Oa,Ob}についてしていないと判定された場合、ステップS32に戻り、表示制御部14は、実行していないオブジェクトの組み合わせ{Oa,Ob}についてステップS32及びS34を実行する。
一方、ステップS36において、クラスタ内のすべての異なるオブジェクトの組み合わせ{Oa,Ob}についてしたと判定された場合、表示制御部14は、全てのクラスタについてステップS32及びS34を繰り返し実行したかを判定する(ステップS38)。全てのクラスタについてステップS32及びS34を実行していないと判定された場合、表示制御部14は、実行していないクラスタについて、オブジェクトの組み合わせ{Oa,Ob}毎にステップS32及びS34を繰り返し実行する。全てのクラスタについてステップS32及びS34を実行したと判定された場合、本処理を終了する。
図9の処理が終了し、図8に戻ると、次に、サムネイル表示順序の決定処理が実行される(ステップS24)。
[サムネイル表示順序の決定処理]
図10のサムネイル表示順序の決定処理では、まず、表示制御部14は、クラスタ情報テーブル25のデータを、原点(0,0)と重心の座標間の距離について昇順にソートする(ステップS40)。
次に、表示制御部14は、クラスタ内のすべてのオブジェクトを、原点(0,0)とオブジェクトの座標間の距離について昇順にソートし、クラスタ情報テーブル25のオブジェクトリストをソート後のオブジェクトリストに更新する(ステップS42)。
次に、表示制御部14は、クラスタ情報テーブル25のオブジェクトリストに格納されているオブジェクトの順番で、サムネイル表示順テーブル23にデータを追加する(ステップS44)。ただし、表示制御部14は、隣接オブジェクトテーブル24を参照して、隣接するオブジェクトがある場合には、指示されたサムネイル表示領域内にて右左又は上下に隣接してオブジェクトのサムネイル画像が表示されるように挿入位置を定める(ステップS44)。
次に、表示制御部14は、クラスタ情報テーブル25のデータの順に、ステップS42及びS44の処理をすべてのクラスタについて繰り返し実行したかを判定する(ステップS46)。表示制御部14は、ステップS42及びS44の処理をすべてのクラスタについて繰り返し実行していない場合、すべてのクラスタについてステップS42及びS44の処理が実行されるまでステップS42及びS44の処理を繰り返す。
一方、ステップS46において、ステップS42及びS44の処理をすべてのクラスタについて繰り返し実行した場合、本処理を終了する。
図10の処理が終了し、図8に戻ると、次に、表示制御部14は、各オブジェクトのサムネイル画像を作成し、サムネイル表示順テーブル23に記憶する(ステップS26)。次に、表示制御部14は、指示されたサムネイル表示領域を表示し、サムネイル表示順テーブル23の順番でオブジェクトのサムネイル画像を表示し(ステップS28)、本処理を終了する。
この結果、例えば、図11(a)及び(b)に示すように、ユーザがペンデバイス50aの入力操作により、入力軌跡K1に対応するサムネイル表示領域K2が確定し、サムネイル表示領域K2内の特定の位置に昇順に特定された複数のオブジェクトのサムネイル画像が表示される。図11(b)では、指定されたサムネイル表示領域K2内に昇順に、オブジェクトO2のサムネイル画像O2v、オブジェクトO3のサムネイル画像O3v、オブジェクトO5のサムネイル画像O5v、オブジェクトO1のサムネイル画像O1vが表示される。
例えば、サムネイル表示でアプリ、写真、電子付箋等をプロジェクタ40にてスクリーンに映すときに、対象のオブジェクトが増えると、多数のオブジェクトが重なり合い、特に下側のオブジェクトが見え難くなり、作業がし難くなる。例えば、図11(a)に示すオブジェクトO5は、オブジェクトO4の下に表示され、見えない。
これに対して、本実施形態では、図11(a)に示すように、机上の領域をペンで囲む等を行うと、ペンデバイス50aにより赤外線の移動軌跡K1が検知され、サムネイル画像を表示する、図11(b)に示すサムネイル表示領域K2が定義される。
そして、図11(b)に示す指定されたサムネイル表示領域K2内に1つ以上のオブジェクトのサムネイル画像を表示する(サムネイル表示)。これにより、重なり合った多数のオブジェクトから対象のオブジェクトを簡単に探索することができる。
図11(b)に示す例では、ボード上の表示エリアに表示された複数のオブジェクトO1~O5の表示を維持しつつ、サムネイル表示領域K2に、取得した複数の識別情報の一例として、複数のオブジェクトO1~O3、O5に対する複数のサムネイル画像O1v~O3v、O5vが表示される。サムネイル画像O1v~O3v、O5vの表示は、それぞれの識別情報に対応するオブジェクトの移動又は編集のために操作される操作部品の一例である。これにより、重なり合った多数のオブジェクトから対象のオブジェクトを簡単に探索し、対応するオブジェクトを編集等することができる。
また、サムネイル表示領域は、ユーザにより定義される。このため、ユーザは、ペン操作等により他のユーザの作業を妨害しない領域をサムネイル表示領域に定めることができる。また、サムネイル表示領域は、ユーザの手が届く範囲で定められるため、サムネイル表示されたオブジェクトを編集する際にも、当然、編集対象のオブジェクトに手が届くため、さらに作業を効率的に行うことができる。
サムネイル表示領域内にサムネイル表示するオブジェクトは、特定部13により特定される。特定方法としては、例えば、図4のオブジェクト情報テーブル22のレイヤ情報を使用して、最も下のレイヤのオブジェクトから先に表示する。これによれば、図11(b)に示す例のように、重なり合った下側のオブジェクトのサムネイル画像を優先的にサムネイル表示するため、重なり合った多数のオブジェクトから対象のオブジェクトを簡単に探索することができ、作業がし易くなる。
レイヤ情報を使用する方法以外であっても、例えば、表示した時間が最も古いオブジェクトから順に表示してもよい。これによっても、重なっているオブジェクトの最も下側から(古いものから)順に表示することができ、対象のオブジェクトを簡単に探索することができる。
その他の方法としては、ペンデバイス50aにより囲まれたエリアに表示されているオブジェクトのサムネイル画像を優先してサムネイル表示してもよいし、オブジェクトをランダムに表示してもよい。なお、一度にサムネイル表示可能なオブジェクトの数は、サムネイル表示領域が大きい程多くしてもよいし、オブジェクトの総数が多い程多くしてもよい。
本実施形態では、特定の動作(例えば図11(b)に示すスワイプ操作)が検出されると、選択部17は、サムネイル表示領域に表示された複数のオブジェクトのうち、いずれかのオブジェクトを選択する。
そうすると、取得部12が、オブジェクト情報テーブル22を参照して、選択したオブジェクトに対応する第1の識別情報(サムネイル画像等)と、複数のオブジェクト間の位置関係を示す位置関係情報とを取得する。
次に、表示制御部14が、取得した第1の識別情報をサムネイル表示領域に表示する。また、特定部13は、特定の動作により方向の指定を受け付けると、選択したオブジェクトと、取得した位置関係情報と、指定された方向とに基づき、複数のオブジェクトのうち、他のオブジェクトを特定する。取得部12は、特定した他のオブジェクトに対応する第2の識別情報(サムネイル画像等)を取得する。表示制御部14は、取得した第2の識別情報を前記表示エリアに表示する。なお、複数のオブジェクトのうち、選択したオブジェクトに対して、指定された方向に位置するオブジェクトを他のオブジェクトとしてもよい。
これにより、サムネイル表示する特定のオブジェクトの識別情報を、図11(b)に示すように、サムネイル表示領域K2内におけるペンデバイス50aや指でのスワイプ操作に応じて、スワイプした方向に対応する他のオブジェクトの識別情報に切り替えることができる。
本実施形態に係る表示制御処理では、図10のステップS44の但し書きにあるように、隣接オブジェクトテーブル24を参照して、隣接するオブジェクトがある場合、サムネイル表示領域内でも隣接オブジェクト同士が左右又は上下に隣接して表示されるように各オブジェクトの識別情報の表示位置が定められる。
このように、隣接オブジェクト同士が隣接して表示されるようにサムネイル表示領域内での各オブジェクトの識別情報の配置を工夫することが好ましい。これにより、より効率的に対象のオブジェクトを探索することができる。例えば、ボード上に表示されている多数のオブジェクトのうち、表示距離が近いオブジェクトは、関連性が高いと考えられる。このため、表示制御部14は、表示距離が近いオブジェクトを隣接オブジェクトテーブル24に記憶しておく。そして、表示制御部14は、サムネイル表示を行うとき、隣接オブジェクトテーブル24に記憶された左右又は上下に隣接するオブジェクトを、同じページ又は近いページに表示する。このとき、隣接オブジェクトの左右又は上下の配置も制御される。
例えば、サムネイル表示領域K2上の特定の動作の検出位置(例えばタッチ位置)の指定を受け付けると、指定された位置に応じた位置に第1の識別情報を表示してもよい。図6の隣接オブジェクトテーブル24の例では、図12に示すように基準オブジェクトO2のサムネイル画像O2vの右側に右側隣接オブジェクトO3のサムネイル画像O3vが表示される。このように特定のオブジェクトを識別する第1の識別情報の表示位置に応じた位置に、他の特定のオブジェクトを識別する第2の識別情報を表示することで、オブジェクト同士の関連性を考慮したサムネイル表示が行われるため、ユーザは、目的とするオブジェクトをより容易に探し出すことができる。
また、これによれば、目的とする対象のオブジェクトを探し出した後の編集、閲覧時に関連性が高い複数のオブジェクトを容易に知ることができるため、作業の効率をより高めることができる。
なお、第1の識別情報は、選択したオブジェクトに対応するサムネイル画像であってもよく、第2の識別情報は、特定したオブジェクトに対応するサムネイル画像であってもよい。ただし、第1の識別情報は、サムネイル画像に限らず、選択したオブジェクトに対応するテキストやその他のオブジェクトを識別可能な情報であってもよい。第2の識別情報は、サムネイル画像に限らず、特定したオブジェクトに対応するテキストやその他のオブジェクトを識別可能な情報であってもよい。
ただし、図9の隣接オブジェクトの判定処理及び図10のステップS44の上記但し書きの処理は、本実施形態に係る表示制御処理から省くことできる。
[変形例]
最後に、一実施形態の変形例に係る表示制御処理の一例について、図13を参照しながら説明する。図13は、一実施形態の変形例に係る表示制御処理の一例を示すフローチャートである。
本実施形態の変形例に係る表示制御処理が開始されると、ステップS10~S28の処理が実行される。ここで、ステップS10~S28の処理は、図8のステップS10~S28と同一の処理であるため、説明を省略する。
ステップS10~S28の処理を実行すると、例えば図14のサムネイル表示領域K2には特定のオブジェクトのサムネイル画像O1v~O3v、O5vがサムネイル表示される。例えば、この時点のサムネイル表示領域K2内のサムネイル表示をデフォルト表示として、本変形例に係る表示制御処理では、図14のメニュー80から、表示するオブジェクトの属性を選択し、フィルタリングにより選択した属性のサムネイル画像を抽出し、サムネイル表示領域K2に表示する。
図13に戻り、上位処理の具体的な流れについて説明する。図13のステップS50において、選択部17は、メニューからいずれかの属性が選択されたかを判定する(ステップS50)。選択部17は、メニューのいずれの属性も選択されていないと判定した場合、本処理を終了する。この場合、サムネイル表示領域K2内のサムネイル表示はデフォルト表示のままとなる。
一方、選択部17は、メニューのいずれかの属性が選択されたと判定した場合、特定部13は、オブジェクト情報テーブル22を参照して、選択された属性のオブジェクトを抽出する(ステップS52)。例えば、図14に示すように、メニュー80から種類81として付箋と画像のオブジェクトが選択された場合、特定部13は、図4に示すオブジェクト情報テーブル22から、種類が付箋と画像のオブジェクトを抽出する。
次に、特定部13は、オブジェクト情報テーブル22から、ステップS52にて抽出した各オブジェクトの座標に基づきクラスタリングを行い、クラスタ情報テーブル25を作成する(ステップS54)。
次に、ステップS22に戻り、ステップS22~S28の処理が実行される。これにより、本変形例では、抽出後のオブジェクト、つまり、メニューにて選択した種類のオブジェクトのサムネイル画像のみがサムネイル表示される。
ステップS50にて、選択部17がメニューのいずれの属性も選択されていないと判定されるまでステップS50~S54、S22~S28の処理が繰り返される。メニューのいずれの属性も選択されていないと判定されたとき、本処理を終了する。
以上に説明したように、本実施形態の変形例に係る表示制御方法によれば、サムネイル表示の対象とするオブジェクトの定義方法を設け、ユーザに編集及び閲覧したいオブジェクトの属性を選択させることにより、更に効率的に目的のオブジェクトを探すことができる。
なお、オブジェクトの属性としては、オブジェクト所有者、オブジェクト種類(付箋、画像など)、机又は壁面、拠点(遠隔地がある場合)等が挙げられる。
以上、表示制御プログラム、表示制御方法及び表示制御装置を上記実施形態により説明したが、本発明に係る表示制御プログラム、表示制御方法及び表示制御装置は上記実施形態に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能である。また、上記実施形態及び変形例が複数存在する場合、矛盾しない範囲で組み合わせることができる。
例えば、上記実施形態では、オブジェクトの距離として、表示されている距離を一例に挙げてオブジェクトの識別情報のサムネイル表示方法を説明した。しかしながら、オブジェクトの距離として、表示されている距離に限らず、内容の距離であってもよい。内容の距離とは、オブジェクトの内容の関連度合い、つまり、オブジェクト同士の類似性を示す。例えば、オブジェクト情報テーブル22に記憶したオブジェクト毎にグループIDを有するようにすれば、同じグループIDが付いているオブジェクトは内容の関連度合いが高い、つまり、類似する内容のオブジェクトであると判定してもよい。そして、内容が類似しているオブジェクトの識別情報は、近くにサムネイル表示してもよい。また、例えば、会議室Aで使用される資料1,2,3の各オブジェクトに同じグループIDを付与することで、これらの内容的に類似する資料のサムネイル画像を近くにサムネイル表示することができる。
また、ユーザにより定められたオブジェクトの分類情報(例えば、種類やグループIDを含む)があれば、分類情報を使用してもよい。オブジェクトの種類等の分類情報に基づき、類似する内容のオブジェクトを判定してもよい。そして、内容が類似しているオブジェクトの識別情報は、近くにサムネイル表示してもよい。ユーザによるオブジェクトの分類に替えて、所定のシステムによって自動的に分類する学習モデルがあれば、その学習モデルを用いてオブジェクトを分類してもよい。この場合にも、内容が類似しているオブジェクトの識別情報を近くにサムネイル表示することで、対象となるオブジェクトをさらに簡単に探索することができる。
例えば、上記実施形態に係る表示制御システムの構成は一例であり、本発明の範囲を限定するものではなく、用途や目的に応じて様々なシステム構成例があることは言うまでもない。例えば、拠点毎に表示制御装置が備えられ、各拠点の表示制御装置がネットワークを介してサーバに接続され、サーバが上記各処理を実行してもよいし、各拠点の表示制御装置が上記各処理を分散処理してもよい。
以上の説明に関し、更に以下の項を開示する。
(付記1)
特定の動作を検出すると、表示エリアに表示された複数のオブジェクトのうち、条件を満たす複数のオブジェクトを特定し、
オブジェクトに関する情報を記憶する記憶部を参照して、特定した前記複数のオブジェクトに対応する複数の識別情報と、特定した前記複数のオブジェクト間の位置関係を示す位置関係情報と、を取得し、
取得した前記複数の識別情報を、取得した前記位置関係情報に応じた位置関係で前記表示エリアに表示する、
処理をコンピュータに実行させることを特徴とする表示制御プログラム。
(付記2)
前記表示エリアに表示された前記複数のオブジェクトの表示を維持しつつ、取得した前記複数の識別情報を表示する、
ことを特徴とする付記1に記載の表示制御プログラム。
(付記3)
前記複数の識別情報の表示は、それぞれの識別情報に対応するオブジェクトの移動又は編集のために操作される操作部品である、
ことを特徴とする付記1に記載の表示制御プログラム。
(付記4)
前記表示エリア上の位置の指定を受け付けると、指定された前記位置に応じた位置に前記複数の識別情報を表示する、
ことを特徴とする付記1に記載の表示制御プログラム。
(付記5)
前記複数の識別情報は、特定した前記複数のオブジェクトに対応する複数のサムネイル画像である、
ことを特徴とする付記1乃至4のいずれかに記載の表示制御プログラム。
(付記6)
特定の動作を検出すると、表示エリアに表示された複数のオブジェクトのうち、いずれかのオブジェクトを選択し、
オブジェクトに関する情報を記憶する記憶部を参照して、選択した前記オブジェクトに対応する第1の識別情報と、前記複数のオブジェクト間の位置関係を示す位置関係情報と、を取得し、
取得した前記第1の識別情報を前記表示エリアに表示し、
方向の指定を受け付けると、選択した前記オブジェクトと、取得した前記位置関係情報と、指定された前記方向とに基づき、前記複数のオブジェクトのうち、他のオブジェクトを特定し、
特定した前記他のオブジェクトに対応する第2の識別情報を取得し、
取得した前記第2の識別情報を前記表示エリアに表示する、
処理をコンピュータに実行させることを特徴とする表示制御プログラム。
(付記7)
前記複数のオブジェクトのうち、選択した前記オブジェクトに対して、指定された前記方向に位置するオブジェクトを、前記他のオブジェクトとする、
ことを特徴とする付記6に記載された表示制御プログラム。
(付記8)
前記第1の識別情報の表示位置に応じた位置に、前記第2の識別情報を表示する、
ことを特徴とする付記6に記載の表示制御プログラム。
(付記9)
前記表示エリア上の位置の指定を受け付けると、指定された前記位置に応じた位置に前記第1の識別情報を表示する、
ことを特徴とする付記6乃至8のいずれかに記載の表示制御プログラム。
(付記10)
前記第1の識別情報は、選択した前記オブジェクトに対応するサムネイル画像であり、前記第2の識別情報は、特定した前記オブジェクトに対応するサムネイル画像である、
ことを特徴とする付記6乃至9のいずれかに記載の表示制御プログラム。
(付記11)
オブジェクトに関するレイヤ情報を記憶する記憶部を参照して、表示エリアに表示された複数のオブジェクトのうち、レイヤが下のオブジェクトから順に複数のオブジェクトを特定する、
ことを特徴とする付記1乃至10のいずれかに記載の表示制御プログラム。
(付記12)
特定の動作を検出すると、表示エリアに表示された複数のオブジェクトのうち、条件を満たす複数のオブジェクトを特定し、
オブジェクトに関する情報を記憶する記憶部を参照して、特定した前記複数のオブジェクトに対応する複数の識別情報と、特定した前記複数のオブジェクト間の位置関係を示す位置関係情報と、を取得し、
取得した前記複数の識別情報を、取得した前記位置関係情報に応じた位置関係で前記表示エリアに表示する、
処理をコンピュータが実行することを特徴とする表示制御方法。
(付記13)
前記表示エリアに表示された前記複数のオブジェクトの表示を維持しつつ、取得した前記複数の識別情報を表示する、
ことを特徴とする付記12に記載の表示制御方法。
(付記14)
前記複数の識別情報の表示は、それぞれの識別情報に対応するオブジェクトの移動又は編集のために操作される操作部品である、
ことを特徴とする付記12に記載の表示制御方法。
(付記15)
前記表示エリア上の位置の指定を受け付けると、指定された前記位置に応じた位置に前記複数の識別情報を表示する、
ことを特徴とする付記12に記載の表示制御方法。
(付記16)
前記複数の識別情報は、特定した前記複数のオブジェクトに対応する複数のサムネイル画像である、
ことを特徴とする付記12乃至15のいずれかに記載の表示制御方法。
(付記17)
特定の動作を検出すると、表示エリアに表示された複数のオブジェクトのうち、条件を満たす複数のオブジェクトを特定する特定部と、
オブジェクトに関する情報を記憶する記憶部を参照して、特定した前記複数のオブジェクトに対応する複数の識別情報と、特定した前記複数のオブジェクト間の位置関係を示す位置関係情報と、を取得する取得部と、
取得した前記複数の識別情報を、取得した前記位置関係情報に応じた位置関係で前記表示エリアに表示する表示制御部と、
を有する表示制御装置。
(付記18)
前記表示制御部は、前記表示エリアに表示された前記複数のオブジェクトの表示を維持しつつ、取得した前記複数の識別情報を表示する、
ことを特徴とする付記17に記載の表示制御装置。
(付記19)
前記複数の識別情報の表示は、それぞれの識別情報に対応するオブジェクトの移動又は編集のために操作される操作部品である、
ことを特徴とする付記17に記載の表示制御装置。
(付記20)
前記表示制御部は、前記表示エリア上の位置の指定を受け付けると、指定された前記位置に応じた位置に前記複数の識別情報を表示する、
ことを特徴とする付記17に記載の表示制御装置。
(付記21)
前記複数の識別情報は、特定した前記複数のオブジェクトに対応する複数のサムネイル画像である、
ことを特徴とする付記17乃至20のいずれかに記載の表示制御装置。
10 表示制御装置
11 記憶部
12 取得部
13 特定部
14 表示制御部
15 通信部
16 制御部
17 選択部
20 カメラ
21 特定操作登録テーブル
22 オブジェクト情報テーブル
23 サムネイル表示順テーブル
24 隣接オブジェクトテーブル
25 クラスタ情報テーブル
30a~30e 端末
40 プロジェクタ
50a、50d ペンデバイス
60 会議室
101 通信I/F
102 CPU
103 メモリ
104 入力装置
105 表示装置
106 外部I/F

Claims (8)

  1. 特定の動作を検出すると、表示エリアに表示された複数のオブジェクトのうち、条件を満たす複数のオブジェクトを特定し、
    複数のオブジェクトと複数のオブジェクトの識別情報と複数のオブジェクトの位置情報とを含むオブジェクトに関する情報を記憶する記憶部を参照して、特定した前記複数のオブジェクトに対応する複数の識別情報と、特定した前記複数のオブジェクトの表示位置を示す位置情報と、を取得し、
    取得した前記複数のオブジェクトの位置情報に基づき、取得した前記複数の識別情報間の相対位置関係を決定し、
    取得した前記複数の識別情報を、決定した前記相対位置関係で前記表示エリアに表示する、
    処理をコンピュータに実行させ、
    前記複数の識別情報間の相対位置関係は、前記複数のオブジェクトの表示位置の相対的な関係に対応する、ことを特徴とする表示制御プログラム。
  2. 前記表示エリアに表示された前記複数のオブジェクトの表示を維持しつつ、取得した前記複数の識別情報を表示する、
    ことを特徴とする請求項1に記載の表示制御プログラム。
  3. 前記複数の識別情報の表示は、それぞれの識別情報に対応するオブジェクトの移動又は編集のために操作される操作部品である、
    ことを特徴とする請求項1に記載の表示制御プログラム。
  4. 前記表示エリア上の位置の指定を受け付けると、指定された前記位置に応じた位置に前記複数の識別情報を表示する、
    ことを特徴とする請求項1に記載の表示制御プログラム。
  5. 前記複数の識別情報は、特定した前記複数のオブジェクトに対応する複数のサムネイル画像である、
    ことを特徴とする請求項1乃至4のいずれかに記載の表示制御プログラム。
  6. 前記表示エリアは物体の表面であって、前記表示エリアに表示された前記複数のオブジェクトは、前記物体の外部に設けられたプロジェクタによって前記物体の表面に投影された投影像である、
    請求項1に記載の表示制御プログラム。
  7. 特定の動作を検出すると、表示エリアに表示された複数のオブジェクトのうち、条件を満たす複数のオブジェクトを特定し、
    複数のオブジェクトと複数のオブジェクトの識別情報と複数のオブジェクトの位置情報とを含むオブジェクトに関する情報を記憶する記憶部を参照して、特定した前記複数のオブジェクトに対応する複数の識別情報と、特定した前記複数のオブジェクトの表示位置を示す位置情報と、を取得し、
    取得した前記複数のオブジェクトの位置情報に基づき、取得した前記複数の識別情報間の相対位置関係を決定し、
    取得した前記複数の識別情報を、決定した前記相対位置関係で前記表示エリアに表示する、
    処理をコンピュータに実行させ、
    前記複数の識別情報間の相対位置関係は、前記複数のオブジェクトの表示位置の相対的な関係に対応する、ことを特徴とする表示制御方法。
  8. 特定の動作を検出すると、表示エリアに表示された複数のオブジェクトのうち、条件を満たす複数のオブジェクトを特定する特定部と、
    複数のオブジェクトと複数のオブジェクトの識別情報と複数のオブジェクトの位置情報とを含むオブジェクトに関する情報を記憶する記憶部を参照して、特定した前記複数のオブジェクトに対応する複数の識別情報と、特定した前記複数のオブジェクトの表示位置を示す位置情報と、を取得する取得部と、
    取得した前記複数のオブジェクトの位置情報に基づき、取得した前記複数の識別情報間の相対位置関係を決定し、
    取得した前記複数の識別情報を、決定した前記相対位置関係で前記表示エリアに表示する表示制御部と、を有し、
    前記複数の識別情報間の相対位置関係は、前記複数のオブジェクトの表示位置の相対的な関係に対応する、表示制御装置。
JP2017105567A 2017-05-29 2017-05-29 表示制御プログラム、表示制御方法及び表示制御装置 Active JP7019967B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017105567A JP7019967B2 (ja) 2017-05-29 2017-05-29 表示制御プログラム、表示制御方法及び表示制御装置
US15/983,977 US10698574B2 (en) 2017-05-29 2018-05-18 Display control program, display control method, and display control apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017105567A JP7019967B2 (ja) 2017-05-29 2017-05-29 表示制御プログラム、表示制御方法及び表示制御装置

Publications (2)

Publication Number Publication Date
JP2018200614A JP2018200614A (ja) 2018-12-20
JP7019967B2 true JP7019967B2 (ja) 2022-02-16

Family

ID=64400586

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017105567A Active JP7019967B2 (ja) 2017-05-29 2017-05-29 表示制御プログラム、表示制御方法及び表示制御装置

Country Status (2)

Country Link
US (1) US10698574B2 (ja)
JP (1) JP7019967B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11172189B1 (en) * 2018-12-28 2021-11-09 Facebook, Inc. User detection for projection-based augmented reality system
US11196985B1 (en) 2018-12-28 2021-12-07 Facebook, Inc. Surface adaptation for projection-based augmented reality system
KR20210087273A (ko) * 2020-01-02 2021-07-12 삼성전자주식회사 전자장치 및 그 제어방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012168790A (ja) 2011-02-15 2012-09-06 Brother Ind Ltd 表示プログラム、及び、表示装置
JP2012190081A (ja) 2011-03-08 2012-10-04 Toshiba Corp 電子機器、オブジェクトの表示方法及びオブジェクトの表示プログラム。
JP2013152529A (ja) 2012-01-24 2013-08-08 Canon Inc 情報処理装置及びその制御方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3730923B2 (ja) 2002-02-06 2006-01-05 株式会社ジャストシステム アイコン表示装置、アイコン表示方法およびその方法をコンピュータに実行させるプログラム
JP4163718B2 (ja) * 2006-02-28 2008-10-08 株式会社コナミデジタルエンタテインメント オブジェクト表示装置、オブジェクト配置方法、および、プログラム
US8423916B2 (en) 2008-11-20 2013-04-16 Canon Kabushiki Kaisha Information processing apparatus, processing method thereof, and computer-readable storage medium
JP5118609B2 (ja) 2008-11-20 2013-01-16 キヤノン株式会社 オブジェクト処理装置、その処理方法及びプログラム
JP4929414B1 (ja) 2011-08-31 2012-05-09 楽天株式会社 情報処理装置、情報処理装置の制御方法、プログラム、及び情報記憶媒体
KR101952260B1 (ko) * 2012-04-03 2019-02-26 삼성전자주식회사 다수의 동영상 썸네일을 동시에 표시하기 위한 영상 재생 장치 및 방법
US9857918B2 (en) 2015-03-31 2018-01-02 Fujitsu Limited Content display control method and system
JP6507905B2 (ja) 2015-03-31 2019-05-08 富士通株式会社 コンテンツ表示制御方法、コンテンツ表示制御装置およびコンテンツ表示制御プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012168790A (ja) 2011-02-15 2012-09-06 Brother Ind Ltd 表示プログラム、及び、表示装置
JP2012190081A (ja) 2011-03-08 2012-10-04 Toshiba Corp 電子機器、オブジェクトの表示方法及びオブジェクトの表示プログラム。
JP2013152529A (ja) 2012-01-24 2013-08-08 Canon Inc 情報処理装置及びその制御方法

Also Published As

Publication number Publication date
US20180341375A1 (en) 2018-11-29
US10698574B2 (en) 2020-06-30
JP2018200614A (ja) 2018-12-20

Similar Documents

Publication Publication Date Title
JP5248696B1 (ja) 電子機器、手書き文書作成方法、及び手書き文書作成プログラム
KR102059913B1 (ko) 태그 정보 저장 방법 및 장치와 태그 정보를 이용한 이미지 검색 방법 및 장치
US9117274B2 (en) System and method for interactive markerless paper documents in 3D space with mobile cameras and projectors
CN105074620A (zh) 用于指派语音和手势命令区域的系统和方法
JP7019967B2 (ja) 表示制御プログラム、表示制御方法及び表示制御装置
US9851873B2 (en) Electronic album creating apparatus and method of producing electronic album
US11429985B2 (en) Information processing device calculating statistical information
US11209973B2 (en) Information processing apparatus, method, and medium to control item movement based on drag operation
US10684772B2 (en) Document viewing apparatus and program
JP4724507B2 (ja) 情報処理装置、方法、プログラム、および、記憶媒体
JP2013114467A (ja) 表示システム、表示方法およびプログラム
JP2010176479A (ja) 画像キーワード付与装置および画像検索装置ならびにそれらの制御方法
JP5917461B2 (ja) 情報処理装置、プログラム
JP6971671B2 (ja) 画像表示装置、画像表示システム及びプログラム
US11436776B2 (en) Information processing apparatus and control method thereof
JP2019139332A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
US8629846B2 (en) Information processing apparatus and information processing method
KR20100107611A (ko) 단말 제어 장치 및 방법
US9912834B2 (en) Document camera device and cutout assistance method
JP7480608B2 (ja) 表示装置、表示方法、プログラム
JP2019128899A (ja) 表示制御プログラム、表示制御装置及び表示制御方法
US11816327B2 (en) Display apparatus, method for displaying, and non-transitory recording medium
US10802675B2 (en) Information processing apparatus and non-transitory computer readable medium storing information processing program
US11675496B2 (en) Apparatus, display system, and display control method
US20240070547A1 (en) Systems and methods for autonomous computing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220117

R150 Certificate of patent or registration of utility model

Ref document number: 7019967

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150