JP6435964B2 - Display device, program, and display method - Google Patents

Display device, program, and display method Download PDF

Info

Publication number
JP6435964B2
JP6435964B2 JP2015072084A JP2015072084A JP6435964B2 JP 6435964 B2 JP6435964 B2 JP 6435964B2 JP 2015072084 A JP2015072084 A JP 2015072084A JP 2015072084 A JP2015072084 A JP 2015072084A JP 6435964 B2 JP6435964 B2 JP 6435964B2
Authority
JP
Japan
Prior art keywords
pointer
objects
unit
display
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015072084A
Other languages
Japanese (ja)
Other versions
JP2016192094A (en
Inventor
純也 藤本
純也 藤本
桂樹 岡林
桂樹 岡林
山 姜
山 姜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015072084A priority Critical patent/JP6435964B2/en
Publication of JP2016192094A publication Critical patent/JP2016192094A/en
Application granted granted Critical
Publication of JP6435964B2 publication Critical patent/JP6435964B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、表示装置、プログラム、及び表示方法に関する。   The present invention relates to a display device, a program, and a display method.

背景(投影面)に表示された投影画像に、投影装置の動きに合わせて動くポインタを重ねることで、投影画像に対してポインティング操作を行う技術が知られている(例えば特許文献1参照)。   A technique is known in which a pointing operation is performed on a projection image by superimposing a pointer that moves in accordance with the movement of the projection device on the projection image displayed on the background (projection plane) (see, for example, Patent Document 1).

特開2005−266471号公報JP 2005-266471 A

しかしながら、投影画像が投影される領域が平面な投影面に収まらない場合、ポインティング操作の対象となるオブジェクト(例えば、アプリケーションを操作するためのアイコン等)の一部が平面の外に表示されることがある。このような場合、ユーザは、各オブジェクトの位置関係を把握することが難しくなり、ポインティング操作を行いにくいことがある。   However, if the area onto which the projected image is projected does not fit on the flat projection plane, a part of the object (for example, an icon for operating the application) that is the object of the pointing operation is displayed outside the plane. There is. In such a case, it is difficult for the user to grasp the positional relationship between the objects, and it may be difficult to perform a pointing operation.

これに対して、ユーザが手動で、ポインティング操作を行い易い位置に各オブジェクトの表示を調整することは手間である。   On the other hand, it is troublesome for the user to manually adjust the display of each object to a position where the pointing operation can be easily performed.

そこで、一側面では、本発明は、投影して表示されるオブジェクトのポインティング操作を向上させることを目的とする。   Therefore, in one aspect, an object of the present invention is to improve a pointing operation of an object displayed by projection.

一つの案では、複数のアプリケーションを操作するポインタを表示対象物に投影して表示する表示部と、前記ポインタが投影された前記表示対象物までの第1の距離を算出する算出部と、前記第1の距離に基づいて、前記表示対象物において、前記ポインタにより操作される前記複数のアプリケーションに対応する複数のオブジェクトを表示する領域を抽出する抽出部と、前記領域内において前記複数のオブジェクトが重畳しない位置を、前記複数のオブジェクト及び前記ポインタのそれぞれの相対位置に基づいて決定する決定部とを有し、前記表示部は、前記ポインタと、前記決定された位置に前記複数のオブジェクトとを投影して表示する表示装置が提供される。   In one proposal, a display unit that projects and displays a pointer that operates a plurality of applications on a display object, a calculation unit that calculates a first distance to the display object on which the pointer is projected, Based on a first distance, in the display object, an extraction unit for extracting a region for displaying a plurality of objects corresponding to the plurality of applications operated by the pointer, and the plurality of objects in the region A determination unit that determines a position not to be superimposed based on a relative position of each of the plurality of objects and the pointer, and the display unit displays the pointer and the plurality of objects at the determined position. A display device for projecting and displaying is provided.

一側面によれば、投影して表示されるオブジェクトのポインティング操作を向上させることができる。   According to one aspect, it is possible to improve a pointing operation of an object displayed by projection.

第1の実施形態に係る表示システムの全体構成例を示す図。The figure which shows the example of whole structure of the display system which concerns on 1st Embodiment. 投影画像が1つの平面に収まらない場合の例を示す図。The figure which shows the example in case a projection image does not fit on one plane. 第1の実施形態に係る表示システムのハードウェア構成例を示す図。The figure which shows the hardware structural example of the display system which concerns on 1st Embodiment. 第1の実施形態に係る表示システムの機能構成例を示す図。The figure which shows the function structural example of the display system which concerns on 1st Embodiment. 第1の実施形態に係るポインティング操作の開始処理を示した一例のフローチャート。6 is a flowchart illustrating an example of a pointing operation start process according to the first embodiment. ポインティング操作を行う平面を選択するための一例を示す図。The figure which shows an example for selecting the plane which performs pointing operation. 抽出された領域の一例を示す図。The figure which shows an example of the extracted area | region. オブジェクトのサイズ及び位置の一例を示す図。The figure which shows an example of the size and position of an object. 投影画像を投影したときの一例を示す図。The figure which shows an example when a projection image is projected. 第1の実施形態に係る領域抽出処理の一例のフローチャート。6 is a flowchart of an example of region extraction processing according to the first embodiment. ポインタを囲むバウンディングボックスの一例を示す図。The figure which shows an example of the bounding box surrounding a pointer. 第1の実施形態に係る拡縮倍率の決定処理の一例のフローチャート。The flowchart of an example of the determination process of the expansion / contraction magnification which concerns on 1st Embodiment. 撮像画像における領域の面積とポインタの面積を説明する一例の図。The figure of an example explaining the area of the area | region in a captured image, and the area of a pointer. 第1の実施形態に係る位置の決定処理の一例のフローチャート。6 is a flowchart of an example of position determination processing according to the first embodiment. オブジェクトが他の荷電粒子から受ける斥力を説明する一例の図。The figure of an example explaining the repulsive force which an object receives from another charged particle. 第1の実施形態に係るポインティング操作処理の一例のフローチャート。6 is a flowchart of an example of a pointing operation process according to the first embodiment. 姿勢変化によるオブジェクトの位置の変化量について説明する一例の図。The figure of an example explaining the variation | change_quantity of the position of the object by an attitude | position change. 第2の実施形態に係る表示システムの機能構成例を示す図。The figure which shows the function structural example of the display system which concerns on 2nd Embodiment. 第2の実施形態に係る位置の決定処理の一例のフローチャート。The flowchart of an example of the position determination process which concerns on 2nd Embodiment. オブジェクトの位置の決定について説明する一例の図。The figure of an example explaining determination of the position of an object. 第3の実施形態に係る表示システムの機能構成例を示す図。The figure which shows the function structural example of the display system which concerns on 3rd Embodiment. 第3の実施形態に係る拡縮倍率の決定処理の一例のフローチャート。The flowchart of an example of the determination process of the expansion / contraction magnification which concerns on 3rd Embodiment. 拡縮倍率の決定のための距離について説明する一例の図。The figure of an example explaining the distance for the determination of expansion / contraction magnification.

以下、本発明の実施形態について添付の図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.

<第1の実施形態>
[システムの全体構成]
まず、第1の実施形態に係る表示システム1の構成について、図1を参照しながら説明する。図1は、第1の実施形態に係る表示システムの全体構成例を示す図である。本実施形態に係る表示システム1は、ポインティング端末10及び携帯端末20を有する。ポインティング端末10及び携帯端末20は、有線又は無線により通信可能に接続されている。
<First Embodiment>
[System overall configuration]
First, the configuration of the display system 1 according to the first embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of the overall configuration of a display system according to the first embodiment. The display system 1 according to the present embodiment includes a pointing terminal 10 and a mobile terminal 20. The pointing terminal 10 and the portable terminal 20 are connected to be communicable by wire or wireless.

ポインティング端末10は、図1に示すようにウェアラブル型の端末であり、携帯端末20から受け取った画像データ(投影画像データ)を投影して、投影画像Sを投影面に表示させる。また、ポインティング端末10は、後述するように、モーションセンサから得られる姿勢変化量データを用いて、ポインタPにより投影画像Sに表示されている各オブジェクトA〜Cに対してポインティング操作を行うことができる。   The pointing terminal 10 is a wearable terminal as shown in FIG. 1, projects image data (projected image data) received from the mobile terminal 20, and displays the projected image S on the projection plane. In addition, as will be described later, the pointing terminal 10 can perform a pointing operation on each of the objects A to C displayed on the projected image S by the pointer P using posture change amount data obtained from the motion sensor. it can.

ここで、オブジェクトとは、例えば、携帯端末20に搭載されたアプリケーションを操作するためのアイコン等である。したがって、ユーザは、ポインティング端末10を用いて、投影画像Sにおいて各オブジェクトA〜Cに対してポインティング操作を行うことにより、操作されたオブジェクトに対応するアプリケーションを利用することができる。ただし、オブジェクトは、アプリケーションを操作するためのアイコン等に限られず、例えば、オブジェクトとしてソフトウェアキーボードの各キーを表示させて、文字入力等を行えるようにしてもよい。   Here, the object is, for example, an icon for operating an application installed in the mobile terminal 20. Therefore, the user can use an application corresponding to the operated object by performing a pointing operation on each of the objects A to C in the projection image S using the pointing terminal 10. However, the object is not limited to an icon or the like for operating the application. For example, each key of the software keyboard may be displayed as an object so that characters can be input.

また、ポインティング操作とは、投影画像S内においてポインタPでオブジェクトA〜Cを指し示す、又は選択してアプリケーションを実行させる等のユーザが行う操作のことである。   The pointing operation is an operation performed by the user, such as pointing the objects A to C with the pointer P in the projection image S or selecting and executing the application.

携帯端末20は、ユーザが携帯可能な情報処理装置であり、上述した各種アプリケーションやポインティング端末10により投影される投影画像データの元データである投影元画像データが格納されている。また、携帯端末20は、後述するように、ユーザの操作に応じて投影画像における各オブジェクトA〜Cの位置やサイズ(拡縮倍率)等を決定して、投影元画像データから投影画像データを生成する。より詳しくは、携帯端末20は、ユーザの操作に応じて、ポインティング端末10が投影する表示対象物に基づき各オブジェクトの位置や拡縮倍率等を、ユーザがポインティング操作を行い易いように決定して、投影元画像データから投影画像データを生成する。   The mobile terminal 20 is an information processing device that can be carried by the user, and stores projection source image data that is the original data of the projection image data projected by the various applications and the pointing terminal 10 described above. Further, as will be described later, the mobile terminal 20 determines the position and size (enlargement / reduction ratio) of each of the objects A to C in the projection image according to a user operation, and generates projection image data from the projection source image data. To do. More specifically, the mobile terminal 20 determines the position of each object, the enlargement / reduction ratio, and the like based on the display object projected by the pointing terminal 10 so that the user can easily perform the pointing operation according to the user's operation. Projection image data is generated from the projection source image data.

なお、図1では、ポインティング端末10及び携帯端末20がそれぞれ異なる端末である例を示したが、これに限られず、ポインティング端末10及び携帯端末20は1台の端末で実現されてもよい。すなわち、携帯端末20は、ポインティング端末10に含まれていてもよい。   1 shows an example in which the pointing terminal 10 and the mobile terminal 20 are different terminals, the present invention is not limited to this, and the pointing terminal 10 and the mobile terminal 20 may be realized by a single terminal. That is, the mobile terminal 20 may be included in the pointing terminal 10.

ここで、上述した各オブジェクトの位置やサイズ(拡縮倍率)等をユーザがポインティング操作を行い易いように決定する必要がある場合について、図2を参照しながら説明する。図2は、投影画像が1つの平面に収まらない場合の例を示す図である。図2では、投影画像Sにおいて、ポインタPによるポインティング操作の対象となるオブジェクトA〜Dのうち、オブジェクトA及びBは1つの平面L内に投影されている。一方で、オブジェクトCは、平面Lとは角度の異なる平面に投影されており、オブジェクトDは、一部が平面Lからはみ出して、平面Lの奥に投影されている。このような場合、ユーザは、オブジェクトCやオブジェクトDの位置関係を把握し難いため、ポインタPを操作して、オブジェクトCやオブジェクトDの選択等を的確に行えないことがある。   Here, the case where it is necessary to determine the position and size (enlargement / reduction ratio) of each object described above so that the user can easily perform the pointing operation will be described with reference to FIG. FIG. 2 is a diagram illustrating an example when the projected image does not fit on one plane. In FIG. 2, among the objects A to D that are targets of the pointing operation by the pointer P in the projection image S, the objects A and B are projected on one plane L. On the other hand, the object C is projected onto a plane having a different angle from the plane L, and the object D partially projects from the plane L and is projected to the back of the plane L. In such a case, since it is difficult for the user to grasp the positional relationship between the object C and the object D, the user may not be able to accurately select the object C or the object D by operating the pointer P.

そこで、本実施形態に係る表示システム1では、ポインタPが投影されている平面Lからポインティング操作に適した領域を抽出し、ポインタP及びオブジェクトA〜Dの位置やサイズ(拡縮倍率)を調整した上で、抽出した領域に含まれるように投影する。これにより、本実施形態に係る表示システム1では、ユーザのポインティング操作を向上させることができる。   Therefore, in the display system 1 according to the present embodiment, an area suitable for the pointing operation is extracted from the plane L on which the pointer P is projected, and the position and size (enlargement / reduction ratio) of the pointer P and the objects A to D are adjusted. Above, it projects so that it may be contained in the extracted area | region. Thereby, in the display system 1 which concerns on this embodiment, a user's pointing operation can be improved.

[ハードウェア構成]
次に、本実施形態に係る表示システム1のハードウェア構成について、図3を参照しながら説明する。図3は、第1の実施形態に係る表示システムのハードウェア構成例を示す図である。
[Hardware configuration]
Next, the hardware configuration of the display system 1 according to the present embodiment will be described with reference to FIG. FIG. 3 is a diagram illustrating a hardware configuration example of the display system according to the first embodiment.

ポインティング端末10は、投影装置101、撮像装置102、モーションセンサ103、入力装置104、I/F装置105、CPU(Central Processing Unit)106、RAM(Random Access Memory)107、及びROM(Read Only Memory)等を備える。これら各ハードウェアは、それぞれがバスB1で相互に接続されている。   The pointing terminal 10 includes a projection device 101, an imaging device 102, a motion sensor 103, an input device 104, an I / F device 105, a CPU (Central Processing Unit) 106, a RAM (Random Access Memory) 107, and a ROM (Read Only Memory). Etc. Each of these hardware is mutually connected by bus B1.

投影装置101は、プロジェクタ等であり、I/F装置105を介して携帯端末20から受け取った投影画像データを投影して、投影画像を表示させる。撮像装置102は、距離を測定することができるカメラ(測距カメラ)等であり、所定の範囲を撮像して、撮像装置102から撮像対象物までの距離を含む撮像画像データを生成する。撮像装置102により生成された撮像画像データは、I/F装置105を介して携帯端末20に送信される。ここで、撮像画像データは、後述するように、携帯端末20において、各オブジェクトのサイズ(拡縮倍率)等を決定する際に用いられる。モーションセンサ103は、ポインティング端末10の姿勢変化量を測定し、姿勢変化量データを出力する。なお、撮像装置102により測定される距離を、便宜上、以降では「第1の距離」と表す。   The projection device 101 is a projector or the like, projects the projection image data received from the portable terminal 20 via the I / F device 105, and displays the projection image. The imaging device 102 is a camera (ranging camera) or the like that can measure a distance, images a predetermined range, and generates captured image data including the distance from the imaging device 102 to the imaging target. The captured image data generated by the imaging device 102 is transmitted to the mobile terminal 20 via the I / F device 105. Here, the captured image data is used when determining the size (enlargement / reduction ratio) and the like of each object in the mobile terminal 20, as will be described later. The motion sensor 103 measures the posture change amount of the pointing terminal 10 and outputs posture change amount data. Note that the distance measured by the imaging device 102 is hereinafter referred to as “first distance” for convenience.

入力装置104は、例えば各種ボタン等であり、ユーザによる各種の入力操作を受け付ける。I/F装置105は、携帯端末20とのインタフェースであり、各種データの送受信を行う。CPU106は、例えばROM107等からプログラムや各種データをRAM108上に読み出し、各種処理を実行する演算装置である。RAM107は、プログラムやデータを一時保存する揮発性の半導体メモリである。ROM108は、電源を切ってもデータを保持することができる不揮発性の半導体メモリである。   The input device 104 is, for example, various buttons and receives various input operations by the user. The I / F device 105 is an interface with the mobile terminal 20 and transmits and receives various data. The CPU 106 is an arithmetic device that reads programs and various data from the ROM 107 and the like onto the RAM 108 and executes various processes. The RAM 107 is a volatile semiconductor memory that temporarily stores programs and data. The ROM 108 is a nonvolatile semiconductor memory that can retain data even when the power is turned off.

携帯端末20は、CPU201、RAM202、ROM203、補助記憶装置204を備える。また、携帯端末20は、入力装置205、出力装置206、I/F装置207、ドライブ装置208、通信装置209等を備える。これら各ハードウェアは、それぞれがバスB2で相互に接続されている。   The portable terminal 20 includes a CPU 201, a RAM 202, a ROM 203, and an auxiliary storage device 204. The mobile terminal 20 includes an input device 205, an output device 206, an I / F device 207, a drive device 208, a communication device 209, and the like. Each of these hardware is mutually connected by bus B2.

CPU201は、例えば補助記憶装置204やROM203等からプログラムや各種データをRAM202上に読み出し、各種処理を実行する演算装置である。RAM202は、プログラムやデータを一時保存する揮発性の半導体メモリである。ROM203は、電源を切ってもデータを保持することができる不揮発性の半導体メモリである。補助記憶装置204は、プログラムや各種データを格納している不揮発性のメモリであり、例えばSSD(Solid State Drive)等である。格納されるプログラムやデータには、携帯端末20の全体を制御する基本ソフトウェアであるOS(Operating System)やOS上で動作する各種プログラム等がある。   The CPU 201 is an arithmetic device that reads programs and various data from the auxiliary storage device 204 and the ROM 203 onto the RAM 202 and executes various processes. The RAM 202 is a volatile semiconductor memory that temporarily stores programs and data. The ROM 203 is a nonvolatile semiconductor memory that can retain data even when the power is turned off. The auxiliary storage device 204 is a non-volatile memory that stores programs and various data, and is, for example, an SSD (Solid State Drive). The stored programs and data include an OS (Operating System) that is basic software for controlling the entire mobile terminal 20 and various programs that operate on the OS.

入力装置205は、例えばタッチパネル等であり、ユーザによる各種の入力操作を受け付ける。出力装置206は、例えばディスプレイ等であり、各種の処理結果を表示する。I/F装置207は、ポインティング端末10とのインタフェースであり、各種データの送受信を行う。ドライブ装置208は、記録媒体208aとのインタフェースである。記録媒体208aには、例えば、SDメモリカード(SD memory card)、USBメモリ(Universal Serial Bus memory)等がある。通信装置209は、ネットワークに接続するためのインタフェースである。   The input device 205 is a touch panel, for example, and accepts various input operations by the user. The output device 206 is a display, for example, and displays various processing results. The I / F device 207 is an interface with the pointing terminal 10 and transmits / receives various data. The drive device 208 is an interface with the recording medium 208a. Examples of the recording medium 208a include an SD memory card and a USB memory (Universal Serial Bus memory). The communication device 209 is an interface for connecting to a network.

本実施形態に係る表示システム1は、図3に示すハードウェア構成により、後述する各種処理が実現される。   The display system 1 according to the present embodiment implements various processes described below with the hardware configuration illustrated in FIG. 3.

[機能構成]
次に、本実施形態に係る表示システム1の機能構成について、図4を参照しながら説明する。図4は、第1の実施形態に係る表示システムの機能構成例を示す図である。
[Function configuration]
Next, the functional configuration of the display system 1 according to the present embodiment will be described with reference to FIG. FIG. 4 is a diagram illustrating a functional configuration example of the display system according to the first embodiment.

ポインティング端末10は、入力部11、投影部12、撮像部13、及び変化量取得部14を有する。これらの各部は、ポインティング端末10にインストールされたプログラムが、CPU106に実行させる処理により実現される。   The pointing terminal 10 includes an input unit 11, a projection unit 12, an imaging unit 13, and a change amount acquisition unit 14. Each of these units is realized by processing executed by the CPU 106 by a program installed in the pointing terminal 10.

入力部11は、ユーザからのポインティング操作を開始するための入力操作を受け付ける。このとき、入力部11は、ユーザからポインティング操作を開始するための入力操作を受け付けると、投影画像生成部26を介してポインタを投影するための投影画像データを投影部12により投影させる。   The input unit 11 receives an input operation for starting a pointing operation from the user. At this time, when receiving an input operation for starting a pointing operation from the user, the input unit 11 causes the projection unit 12 to project projection image data for projecting a pointer via the projection image generation unit 26.

投影部12は、携帯端末20から受け取った投影画像データを投影して、投影画像データに基づく投影画像を表示させる。   The projection unit 12 projects the projection image data received from the mobile terminal 20 and displays a projection image based on the projection image data.

撮像部13は、投影部12により表示されたポインタを含む所定の範囲を撮像して、撮像画像データを生成する。ここで、撮像部13により生成される撮像画像データには、撮像装置102から撮像対象物までの第1の距離が含まれる。すなわち、撮像部13は、撮像装置102から撮像対象物までの第1の距離を算出し、算出された第1の距離を含む撮像画像データを生成する。なお、所定の範囲は、投影部12により表示される投影画像を少なくとも含む範囲であれば良い。   The imaging unit 13 captures a predetermined range including the pointer displayed by the projection unit 12 and generates captured image data. Here, the captured image data generated by the imaging unit 13 includes a first distance from the imaging device 102 to the imaging target. That is, the imaging unit 13 calculates a first distance from the imaging device 102 to the imaging target, and generates captured image data including the calculated first distance. The predetermined range may be a range including at least the projection image displayed by the projection unit 12.

変化量取得部14は、ポインティング端末10の姿勢変化に応じてモーションセンサ103から出力される姿勢変化量データを取得する。ここで、姿勢変化量データは、ポインティング端末10の姿勢変化の前後における角度の変化量で表される。   The change amount acquisition unit 14 acquires posture change amount data output from the motion sensor 103 in accordance with the posture change of the pointing terminal 10. Here, the posture change amount data is represented by an angle change amount before and after the posture change of the pointing terminal 10.

携帯端末20は、ポインタ特定部21、領域抽出部22、オブジェクト決定部23、拡縮倍率決定部24、位置決定部25、投影画像生成部26、及び変化量算出部27を有する。これらの各部は、携帯端末20にインストールされたプログラムが、CPU201に実行させる処理により実現される。また、携帯端末20は、画像データ記憶部28及びオブジェクト管理データ記憶部29を有する。これら各記憶部は、補助記憶装置204を用いて実現可能である。   The mobile terminal 20 includes a pointer specifying unit 21, a region extracting unit 22, an object determining unit 23, a scaling factor determining unit 24, a position determining unit 25, a projection image generating unit 26, and a change amount calculating unit 27. Each of these units is realized by processing executed by the CPU 201 by a program installed in the mobile terminal 20. The mobile terminal 20 includes an image data storage unit 28 and an object management data storage unit 29. Each of these storage units can be realized using the auxiliary storage device 204.

ポインタ特定部21は、撮像部13により生成された撮像画像データに含まれるポインタを特定する。   The pointer specifying unit 21 specifies a pointer included in the captured image data generated by the imaging unit 13.

領域抽出部22は、撮像部13により生成された撮像画像データに基づき、ポインタ及び各オブジェクトを投影して表示させる領域を抽出する。   The area extraction unit 22 extracts an area to be displayed by projecting the pointer and each object based on the captured image data generated by the imaging unit 13.

オブジェクト決定部23は、オブジェクト管理データ記憶部29を参照し、領域抽出部22により抽出された領域に投影して表示させるオブジェクトを決定する。   The object determining unit 23 refers to the object management data storage unit 29 and determines an object to be projected and displayed on the area extracted by the area extracting unit 22.

拡縮倍率決定部24は、領域抽出部22により抽出された領域に投影して表示させる各オブジェクト及びポインタのサイズ(拡縮倍率)を決定する。   The enlargement / reduction ratio determination unit 24 determines the size (enlargement / reduction ratio) of each object and pointer to be projected and displayed on the region extracted by the region extraction unit 22.

位置決定部25は、領域抽出部22により抽出された領域に投影して表示させるポインタ及び各オブジェクトの位置を決定する。より詳しくは、位置決定部25は、領域に投影して表示させるポインタ及び各オブジェクトの位置を、オブジェクト間の距離、オブジェクトとポインタとの距離、及びオブジェクトと領域の境界との距離に基づいて決定する。なお、このようなオブジェクト間の距離、ポインタとオブジェクトとの距離、及びオブジェクトと領域の境界との距離を、上述した第1の距離と区別するため、便宜上、以降では「第2の距離」と表す。   The position determination unit 25 determines the position of the pointer and each object to be projected and displayed on the region extracted by the region extraction unit 22. More specifically, the position determination unit 25 determines the position of the pointer and each object to be projected and displayed on the area based on the distance between the objects, the distance between the object and the pointer, and the distance between the object and the boundary of the area. To do. In order to distinguish the distance between the objects, the distance between the pointer and the object, and the distance between the object and the boundary of the region from the first distance described above, for the sake of convenience, the “second distance” is hereinafter referred to. Represent.

投影画像生成部26は、拡縮倍率決定部24により決定された拡縮倍率と、位置決定部25により決定された位置とに基づき、抽出された領域に投影して表示させるポインタ及び各オブジェクトの投影元画像データから投影画像データを生成する。また、投影画像生成部26は、変化量算出部27により算出されたオブジェクトの位置の変化量に基づき、投影画像データを生成する。   The projection image generation unit 26 projects a pointer to be extracted and displayed on the extracted area based on the enlargement / reduction ratio determined by the enlargement / reduction ratio determination unit 24 and the position determined by the position determination unit 25, and the projection source of each object. Projection image data is generated from the image data. In addition, the projection image generation unit 26 generates projection image data based on the change amount of the position of the object calculated by the change amount calculation unit 27.

変化量算出部27は、変化量取得部14が取得した姿勢変化量データに基づき、ポインティング端末10の姿勢変化に応じて、オブジェクトの位置が変化する量(位置の変化量)を算出する。算出された位置の変化量に基づき、投影画像生成部26により位置の変化量を相殺した投影画像データを生成することで、ポインティング端末10の姿勢変化の前後において、背景(表示対象物)に対してオブジェクトを静止させることができる。   The change amount calculation unit 27 calculates the amount by which the position of the object changes (position change amount) in accordance with the posture change of the pointing terminal 10 based on the posture change amount data acquired by the change amount acquisition unit 14. Based on the calculated position change amount, the projection image generation unit 26 generates projection image data in which the position change amount is canceled, so that the background (display object) is changed before and after the posture change of the pointing terminal 10. The object can be stationary.

画像データ記憶部28は、投影元画像データを格納している。ここで、画像データ記憶部28に格納されている投影元画像データは、例えば、ポインタの投影画像を表示するための画像データ(ポインタ画像データ)やオブジェクトの投影画像を表示するための画像データ(オブジェクト画像データ)等がある。上述した投影画像生成部26は、画像データ記憶部28から1以上の投影元画像データを取得し、取得した投影元画像データから投影画像データを生成する。なお、ポインタ画像データ及びオブジェクト画像データは、投影画像として表示された場合における投影画像内における位置(初期位置)が関連付けられている。ここで、本実施形態では、ポインタ画像データの初期位置は投影画像の中心であるとする。   The image data storage unit 28 stores projection source image data. Here, the projection source image data stored in the image data storage unit 28 is, for example, image data (pointer image data) for displaying a projected image of a pointer or image data (for displaying a projected image of an object). Object image data). The projection image generation unit 26 described above acquires one or more projection source image data from the image data storage unit 28, and generates projection image data from the acquired projection source image data. The pointer image data and the object image data are associated with a position (initial position) in the projection image when displayed as a projection image. Here, in this embodiment, it is assumed that the initial position of the pointer image data is the center of the projection image.

オブジェクト管理データ記憶部29は、オブジェクトに対する操作履歴等のオブジェクト管理データが格納されている。上述したオブジェクト決定部23は、オブジェクト管理データ記憶部29からオブジェクト管理データを取得し、取得したオブジェクト管理データに基づき、領域抽出部22により抽出された領域に投影して表示させるオブジェクトを決定する。   The object management data storage unit 29 stores object management data such as an operation history for the object. The object determination unit 23 described above acquires object management data from the object management data storage unit 29, and determines an object to be projected and displayed on the area extracted by the area extraction unit 22 based on the acquired object management data.

[ポインティング操作の開始処理]
次に、本実施形態に係る表示システム1のポインティング操作の開始処理について、図5を参照しながら説明する。図5は、第1の実施形態に係るポインティング操作の開始処理を示した一例のフローチャートである。以降では、ユーザがポインティング操作を行うためにオブジェクト等を投影する表示対象物を選択してからポインタ及び各オブジェクトを当該表示対象物に投影して表示するまでの処理について説明する。
[Pointing operation start processing]
Next, the pointing operation start process of the display system 1 according to the present embodiment will be described with reference to FIG. FIG. 5 is a flowchart illustrating an example of a pointing operation start process according to the first embodiment. In the following, a process from when a user selects a display target for projecting an object or the like to perform a pointing operation until the pointer and each object are projected and displayed on the display target will be described.

まず、ユーザは、入力部11を介して、ポインティング操作を開始するための操作を行う。すると、投影画像生成部26は、画像データ記憶部28からポインタ画像データを取得し、ポインタを投影画像の中心に表示させる投影画像データを生成し、投影部12に送信する。投影部12は、投影画像生成部26から受信した投影画像データに基づき投影画像Sを投影して表示させる。 First, the user performs an operation for starting a pointing operation via the input unit 11. Then, the projection image generation unit 26 acquires pointer image data from the image data storage unit 28, generates projection image data for displaying the pointer at the center of the projection image, and transmits the projection image data to the projection unit 12. Projection unit 12 displays by projecting the projected image S 1 on the basis of the projection image data received from the projection image generation unit 26.

そして、ユーザは、図6に示すように、ポインティング操作を行いたいと所望する表示対象物(ここでは、平面L)に、投影画像Sに含まれるポインタPを投影して表示させる(ステップS501)。 Then, as shown in FIG. 6, the user projects and displays the pointer P 1 included in the projection image S 1 on the display target object (here, the plane L) desired to perform the pointing operation (Step S 1 ). S501).

次に、撮像部13は、ポインタPが所定の時間の間、同一の場所に表示されていることを契機として、又はユーザからの入力部11を介した入力操作を契機として、投影画像Sを含む所定の範囲を撮像して、撮像画像データを生成する(ステップS502)。なお、このとき、撮像部13により生成された撮像画像データには、例えば、各画素毎に、撮像装置102から撮像対象物までの第1の距離が関連付けられている。 Next, the imaging unit 13, while the pointer P 1 is in a predetermined time, triggered by being displayed on the same location, or in response to an input operation via the input unit 11 by the user, the projected image S A predetermined range including 1 is imaged to generate captured image data (step S502). At this time, the captured image data generated by the imaging unit 13 is associated with, for example, a first distance from the imaging device 102 to the imaging target for each pixel.

ポインタ特定部21及び領域抽出部22は、撮像画像データに基づき、ポインタと、ポインティング操作の対象となる各オブジェクトを表示する領域を、撮像画像データから抽出する(ステップS503)。すなわち、ポインタ特定部21及び領域抽出部22は、例えば図7に示すように、撮像画像Wから平面Lに含まれる領域Rを抽出する。ここで、領域抽出部22により抽出される領域Rは、例えば、ポインティング端末10から表示対象物までの第1の距離等が滑らかに変化している領域等である。このような領域Rを抽出するための領域抽出処理については、図10を用いて後述する。   Based on the captured image data, the pointer specifying unit 21 and the region extracting unit 22 extract a region for displaying the pointer and each object to be a pointing operation from the captured image data (step S503). That is, the pointer specifying unit 21 and the region extracting unit 22 extract a region R included in the plane L from the captured image W, for example, as illustrated in FIG. Here, the region R extracted by the region extraction unit 22 is, for example, a region where the first distance from the pointing terminal 10 to the display object is smoothly changed. Such region extraction processing for extracting the region R will be described later with reference to FIG.

オブジェクト決定部23は、オブジェクト管理データ記憶部29を参照し、領域抽出部22により抽出された領域に投影して表示するオブジェクトを決定する(ステップS504)。より具体的には、オブジェクト決定部23は、オブジェクトに対する操作履歴等を示すオブジェクト管理データをオブジェクト管理データ記憶部29から取得する。そして、オブジェクト決定部23は、オブジェクト管理データから領域Rに投影して表示させるオブジェクトを決定する。   The object determining unit 23 refers to the object management data storage unit 29 and determines an object to be projected and displayed on the area extracted by the area extracting unit 22 (step S504). More specifically, the object determination unit 23 acquires object management data indicating an operation history and the like for the object from the object management data storage unit 29. Then, the object determination unit 23 determines an object to be projected and displayed on the region R from the object management data.

例えば、直前のポインティング操作において、オブジェクトA〜Dがポインティング端末10により投影して表示されていた場合、オブジェクト決定部23は、オブジェクトA〜Dを領域Rに表示させると決定する。また、例えば、携帯端末20に搭載されたアプリケーションAに対応するオブジェクトAが、直前のユーザの操作によりオブジェクトA'に変更された場合、オブジェクト決定部23は、オブジェクトA'を領域Rに表示させると決定する。以降では、オブジェクト決定部23は、オブジェクトA〜Dを領域Rに表示させると決定したものとする。 For example, when the objects A to D are projected and displayed by the pointing terminal 10 in the previous pointing operation, the object determination unit 23 determines to display the objects A to D in the region R. Further, for example, when the object A corresponding to the application A installed in the mobile terminal 20 is changed to the object A ′ by the previous user operation, the object determination unit 23 displays the object A ′ in the region R. And decide. Hereinafter, it is assumed that the object determination unit 23 determines to display the objects A 1 to D 1 in the region R.

次に、拡縮倍率決定部24は、領域抽出部22により抽出された領域Rに投影して表示されるポインタP及び各オブジェクトA〜Dのサイズ(拡縮倍率)を決定する(ステップS505)。また、位置決定部25は、領域抽出部22により抽出された領域Rに投影して表示されるポインタP及び各オブジェクトA〜Dの領域R内における表示位置を決定する(ステップS506)。すなわち、拡縮倍率決定部24及び位置決定部25は、図8に示すようにポインタP及びオブジェクトA〜Dの位置及びサイズが、領域R内においてポインティング操作がし易い位置及びサイズとなるように決定する。このような拡縮倍率の決定処理及び位置の決定処理については、それぞれ図12及び図14を用いて後述する。 Next, the enlargement / reduction ratio determination unit 24 determines the size (enlargement / reduction ratio) of the pointer P 1 and each of the objects A 1 to D 1 that are projected and displayed on the region R extracted by the region extraction unit 22 (step S505). ). The position determination unit 25 determines the display position of the pointer P 1 and each object A 1 to D 1 in the region R to be displayed by projecting a region R that has been extracted by the area extracting unit 22 (step S506) . That is, the enlargement / reduction ratio determination unit 24 and the position determination unit 25 make the position and size of the pointer P 1 and the objects A 1 to D 1 within the region R easy to perform a pointing operation as shown in FIG. To be determined. Such enlargement / reduction magnification determination processing and position determination processing will be described later with reference to FIGS. 12 and 14, respectively.

なお、ステップS506において位置決定部25は、ポインタPの領域R内における表示位置を、上記のステップS502でポインタPが投影して表示されている位置に決定してもよい。 The position determination unit 25 in step S506, the display position in the region R of the pointer P 1, the pointer P 1 in step S502 described above may be determined in a position that is displayed by projecting.

次に、投影画像生成部26は、拡縮倍率決定部24により決定された拡縮倍率と、位置決定部25により決定されたポインタP及び各オブジェクトA〜Dの位置とに基づき、画像データ記憶部28から取得した投影元画像データから投影画像データを生成する。そして、投影部12は、投影画像データに基づく投影画像を表示させる。これにより、図9に示すような投影画像Sが表示される。 Next, the projection image generation unit 26 generates image data based on the enlargement / reduction magnification determined by the enlargement / reduction magnification determination unit 24 and the position of the pointer P 1 and each of the objects A 1 to D 1 determined by the position determination unit 25. Projection image data is generated from the projection source image data acquired from the storage unit. Then, the projection unit 12 displays a projection image based on the projection image data. Thus, the projected image S 2 as shown in FIG. 9 is displayed.

図9に示す投影画像Sにおいて、ポインタP及びオブジェクトA〜Dは、それぞれポインタP及びオブジェクトA〜Dのサイズ及び位置を拡縮倍率決定部24により決定されたサイズ及び位置決定部25により決定された位置で調整したものである。すなわち、投影画像生成部26は、例えばポインタPのポインタ画像データを、拡縮倍率決定部24により決定された拡縮倍率で調整し、位置決定部25により決定された位置に表示させる投影画像データを生成する。同様に、投影画像生成部26は、例えばオブジェクトAのオブジェクト画像データを、拡縮倍率決定部24により決定された拡縮倍率で調整し、位置決定部25により決定された位置に表示させる投影画像データを生成する。オブジェクトB〜Dについても同様である。投影部12は、このように生成された各投影画像データを重畳させて投影することで、図9に示すような投影画像Sを表示させることができる。 In the projection image S 2 shown in FIG. 9, the pointer P 2 and the objects A 2 to D 2 are the size and position determined by the enlargement / reduction ratio determination unit 24 for the size and position of the pointer P 1 and the objects A 1 to D 1 , respectively. This is adjusted at the position determined by the determination unit 25. That is, for example, the projection image generation unit 26 adjusts the pointer image data of the pointer P 1 with the enlargement / reduction ratio determined by the enlargement / reduction ratio determination unit 24 and displays the projection image data to be displayed at the position determined by the position determination unit 25. Generate. Similarly, the projection image generation unit 26, for example, the object image data of an object A 1, adjusted by scaling factor determined by the scaling factor determining unit 24, projection image data to be displayed on the determined position by the position determination unit 25 Is generated. The same applies to the objects B 1 to D 1 . Projection unit 12, by projecting by superimposing the respective projected image data generated in this manner, it is possible to display the projected image S 2 as shown in FIG.

以上のように、本実施形態に係る表示システム1では、ポインティング操作を行いたいとユーザが所望する平面Lから領域Rを抽出する。そして、本実施形態に係る表示システム1では、抽出した領域R内に、ポインタP及びオブジェクトA〜Dのサイズ及び位置を調整したポインタP及びオブジェクトA〜Dを投影して表示させる。これにより、ユーザのポインティング操作を向上させることができる。 As described above, in the display system 1 according to the present embodiment, the region R is extracted from the plane L that the user desires to perform a pointing operation. Then, in the display system 1 according to the present embodiment, the extracted area R, by projecting the pointer P 2 and object A 2 to D 2 who adjust the size and position of the pointer P 1 and the object A 1 to D 1 Display. Thereby, a user's pointing operation can be improved.

[領域抽出処理]
次に、図5のステップS503における領域抽出処理について、図10を参照しながら説明する。図10は、第1の実施形態に係る領域抽出処理の一例のフローチャートである。
[Area extraction processing]
Next, the region extraction processing in step S503 in FIG. 5 will be described with reference to FIG. FIG. 10 is a flowchart of an example of region extraction processing according to the first embodiment.

まず、ポインタ特定部21は、撮像画像からポインタを特定し、バウンディングボックスで囲む(ステップS1001)。すなわち、ポインタ特定部21は、画像データ記憶部28からポインタPのポインタ画像データを取得し、ポインタ画像データを用いて撮像画像データに対してテンプレートマッチング等の手法を用いることにより、ポインタPを特定する。そして、ポインタ特定部21は、図11に示すように、特定したポインタPを、ポインタPを含む枠(バウンディングボックスQ)で囲む。 First, the pointer specifying unit 21 specifies a pointer from the captured image and surrounds it with a bounding box (step S1001). That is, the pointer identifying unit 21 acquires from the image data storage unit 28 the pointer image data of the pointer P 1, by using a method such as template matching on the captured image data by using the pointer image data, pointer P 1 Is identified. Then, the pointer identifying unit 21, as shown in FIG. 11, the pointer P 1 identified, boxed (bounding box Q) containing pointers P 1.

次に、領域抽出部22は、バウンディングボックスQの各辺に対応する撮像画像データにおける画素の画素値p、・・・、p(nは1以上の整数)を取得し、取得した画素値p、・・・、pの中央値Mを算出する(ステップS1002)。 Next, the region extraction unit 22 acquires pixel values p 1 ,..., P n (n is an integer of 1 or more) in the captured image data corresponding to each side of the bounding box Q, and the acquired pixels A median value M 1 of the values p 1 ,..., Pn is calculated (step S1002).

次に、領域抽出部22は、撮像画像データにおいて、バウンディングボックスQによって囲まれる範囲の各画素に関連付けられている第1の距離d、・・・、d(mは1以上の整数)を取得し、取得した第1の距離d、・・・、dの中央値Mを算出する(ステップS1003)。 Next, the area extraction unit 22 has first distances d 1 ,..., D m (m is an integer equal to or greater than 1) associated with each pixel in the range surrounded by the bounding box Q in the captured image data. , And the median value M 2 of the acquired first distances d 1 ,..., Dm is calculated (step S1003).

続いて、領域抽出部22は、撮像画像データにおいて、Mとの差が予め設定された第1の閾値以下の画素で、かつ、Mとの差が予め設定された第2の閾値以下となる第1の距離と関連付けられている画素を抽出する(ステップS1004)。なお、第1の閾値及び第2の閾値は、本実施形態を実現するプログラムの設計時等に予め定められる。第1の閾値及び第2の閾値を適切に設定することで、ポインタPの付近の画素の色が大きく変化しない画素であって、かつ、ポインタPの付近と第1の距離が大きく変化しない画素を抽出することができる。 Subsequently, the region extracting unit 22 is a pixel whose difference from M 1 is less than or equal to a preset first threshold in the captured image data, and which is less than or equal to a preset second threshold that is different from M 2. A pixel associated with the first distance is extracted (step S1004). The first threshold value and the second threshold value are determined in advance at the time of designing a program for realizing the present embodiment. By appropriately setting the first threshold value and the second threshold value, the color of the pixel in the vicinity of the pointer P 1 does not change significantly, and the vicinity of the pointer P 1 and the first distance change greatly. Unextracted pixels can be extracted.

領域抽出部22は、ステップS1004で抽出された画素について、オープニング処理及びクロージング処理を行う(ステップS1005)。このようなオープニング処理及びクロージング処理により、ステップS1004で抽出された画素を描画した場合における穴や突起物を除去することができる。これにより、領域抽出部22は、撮像画像データに基づき描画された撮像画像において、オープニング処理及びクロージング処理後の画素により描画される1以上の領域を得ることができる。   The region extraction unit 22 performs an opening process and a closing process on the pixels extracted in step S1004 (step S1005). By such opening processing and closing processing, it is possible to remove holes and protrusions when the pixels extracted in step S1004 are drawn. Thereby, the area extraction unit 22 can obtain one or more areas drawn by the pixels after the opening process and the closing process in the captured image drawn based on the captured image data.

最後に、領域抽出部22は、上記のステップS1005で得られた1以上の領域のうち、ポインタPが含まれる領域を抽出する(ステップS1006)。このようにして領域抽出部22により抽出された領域が、図7で示した領域Rである。 Finally, the region extraction unit 22 extracts a region including the pointer P1 from one or more regions obtained in step S1005 (step S1006). The region extracted by the region extraction unit 22 in this way is the region R shown in FIG.

なお、領域抽出部22は、ステップS1002の処理を行わなくてもよい。この場合、領域抽出部22は、ステップS1004において中央値Mとの差が第2の閾値以下となる第1の距離と関連付けられている画素を抽出すればよい。このように、領域抽出部22は、第1の距離に基づき領域Rを抽出してもよい。ただし、領域抽出部22は、図10で説明したように第1の距離と画素値とに基づいて領域を抽出した方が、よりポインティング操作に適した領域を抽出することができる場合が多い。 Note that the region extraction unit 22 does not have to perform the process of step S1002. In this case, the region extraction unit 22 may be extracted pixels the difference between the median M 2 in step S1004 is associated with the first distance equal to or less than the second threshold value. As described above, the region extraction unit 22 may extract the region R based on the first distance. However, in many cases, the region extracting unit 22 can extract a region more suitable for the pointing operation when the region is extracted based on the first distance and the pixel value as described with reference to FIG.

[拡縮倍率の決定処理]
次に、図5のステップS505における拡縮倍率の決定処理について、図12を参照しながら説明する。図12は、第1の実施形態に係る拡縮倍率の決定処理の一例のフローチャートである。
[Determination processing of enlargement / reduction ratio]
Next, the scaling factor determination process in step S505 in FIG. 5 will be described with reference to FIG. FIG. 12 is a flowchart of an example of a scaling factor determination process according to the first embodiment.

まず、拡縮倍率決定部24は、撮像画像におけるポインタの面積と、領域抽出部22により抽出された領域の面積とを算出する(ステップS1201)。すなわち、拡縮倍率決定部24は、図13に示すように、撮像画像Wにおいて、バウンディングボックスQで囲まれる範囲の面積をポインタPの面積Bpとして算出する。また、拡縮倍率決定部24は、領域抽出部22により抽出された領域Rの面積Brを算出する。ここで、面積BpはバウンディングボックスQに含まれる画素数、面積Brは領域Rに含まれる画素数を面積として算出すればよい。 First, the scaling factor determining unit 24 calculates the area of the pointer in the captured image and the area of the region extracted by the region extracting unit 22 (step S1201). In other words, scaling factor determining section 24, as shown in FIG. 13, in the captured image W, and calculates an area of a region defined by the bounding box Q as the area Bp of the pointer P 1. The enlargement / reduction ratio determination unit 24 calculates the area Br of the region R extracted by the region extraction unit 22. Here, the area Bp may be calculated as the number of pixels included in the bounding box Q, and the area Br may be calculated as the number of pixels included in the region R.

次に、拡縮倍率決定部24は、投影画像におけるポインタの面積とオブジェクトの面積とを算出する(ステップS1202)。すなわち、拡縮倍率決定部24は、ポインタPのポインタ画像データを画像データ記憶部28から取得し、ポインタ画像データの画素数を投影画像におけるポインタPの面積Apとする。また、拡縮倍率決定部24は、オブジェクトA〜Dそれぞれのオブジェクト画像データを画像データ記憶部28から取得し、各オブジェクト画像データの画素数の合計を投影画像におけるオブジェクトA〜Dの面積Aoとする。 Next, the scaling factor determination unit 24 calculates the area of the pointer and the area of the object in the projected image (step S1202). In other words, scaling factor determining section 24 obtains the pointer image data of the pointer P 1 from the image data storage unit 28, the number of pixels of the pointer image data to the area Ap of the pointer P 1 in the projection image. The enlargement / reduction ratio determination unit 24 acquires the object image data of each of the objects A 1 to D 1 from the image data storage unit 28, and calculates the total number of pixels of each object image data as the area Ao of the objects A to D in the projection image. And

最後に、拡縮倍率決定部24は、以下の式(1)〜(3)により、拡縮倍率sを算出する(ステップS1203)。そして、拡縮倍率決定部24は、このように算出された拡縮倍率sを、領域抽出部22により抽出された領域に投影して表示するポインタP及び各オブジェクトA〜Dのサイズ(拡縮倍率)と決定する。上述したように、投影画像生成部26は、投影元画像データに対して拡縮倍率sで調整することで、投影画像に表示されるポインタ及びオブジェクトのサイズを調整する。 Finally, the enlargement / reduction ratio determination unit 24 calculates the enlargement / reduction ratio s by the following equations (1) to (3) (step S1203). Then, the enlargement / reduction ratio determination unit 24 projects the enlargement / reduction ratio s calculated in this manner onto the area extracted by the area extraction unit 22 and displays the size (enlargement / reduction) of the pointer P 1 and each of the objects A 1 to D 1. Magnification). As described above, the projection image generation unit 26 adjusts the size of the pointer and the object displayed in the projection image by adjusting the projection source image data with the scaling factor s.

まず、拡縮倍率決定部24は、以下の式(1)により、拡縮倍率sで調整せずにオブジェクトA〜Dを投影して表示した場合に、撮像部13で撮像することにより生成される撮像画像データにおけるオブジェクトA〜Dの面積の合計Boを算出する。 First, the enlargement / reduction ratio determination unit 24 is generated by imaging with the imaging unit 13 when the objects A 1 to D 1 are projected and displayed without adjusting with the enlargement / reduction ratio s according to the following equation (1). The total Bo of the areas of the objects A 1 to D 1 in the captured image data is calculated.

Figure 0006435964
Figure 0006435964

次に、拡縮倍率決定部24は、面積Bpと面積Boの合計を拡縮倍率sの二乗で拡縮させた面積と、面積Brとの比が、予め設定された面積比kとなることなることが、以下の式(2)が導出される。なお、面積比kの値は、本実施形態を実現するプログラムの設計時等に予め定められる。面積比kを大きな値に設定することで領域に対してポインタ及びオブジェクトが示す割合を大きくすることができる一方で、面積比kを小さな値に設定することで領域に対してポインタ及びオブジェクトが占める割合を小さくすることができる。   Next, the ratio of the area Br obtained by scaling the sum of the area Bp and the area Bo by the square of the scaling ratio s and the area Br may be a preset area ratio k. The following equation (2) is derived. Note that the value of the area ratio k is determined in advance at the time of designing a program that realizes the present embodiment. By setting the area ratio k to a large value, the ratio of the pointer and the object to the area can be increased. On the other hand, by setting the area ratio k to a small value, the pointer and the object occupy the area. The ratio can be reduced.

Figure 0006435964
Figure 0006435964

拡縮倍率決定部24は、式(1)及び(2)を用いて、以下の式(3)により拡縮倍率sを算出する。   The enlargement / reduction ratio determination unit 24 calculates the enlargement / reduction ratio s by the following expression (3) using the expressions (1) and (2).

Figure 0006435964
Figure 0006435964

[位置の決定処理]
次に、図5のステップS506における位置の決定処理について、図14を参照しながら説明する。図14は、第1の実施形態に係る位置の決定処理の一例のフローチャートである。図14に示す位置の決定処理は、ポインタP及びオブジェクトA〜Dを電荷qの荷電粒子と見做して、斥力モデルでシミュレーションを行うことにより、ポインタP及びオブジェクトA〜Dの位置を決定する。
[Position determination process]
Next, the position determination process in step S506 in FIG. 5 will be described with reference to FIG. FIG. 14 is a flowchart of an example of position determination processing according to the first embodiment. In the position determination processing shown in FIG. 14, the pointer P 1 and the objects A 1 to D 1 are regarded as charged particles of the charge q, and the simulation is performed with the repulsive model, thereby performing the pointer P 1 and the objects A 1 to D. The position of 1 is determined.

まず、位置決定部25は、領域抽出部22により抽出された領域の境界に、所定の間隔毎に、電荷qの荷電粒子を配置する(ステップS1401)。すなわち、図15に示すように、領域Rの境界に、所定の間隔毎に、電荷qの荷電粒子を配置する。   First, the position determination unit 25 arranges charged particles of the charge q at predetermined intervals on the boundary of the region extracted by the region extraction unit 22 (step S1401). That is, as shown in FIG. 15, charged particles of charge q are arranged on the boundary of the region R at predetermined intervals.

次に、位置決定部25は、後述するステップS1403〜ステップS1405の処理を所定の回数繰り返したかを判定する(ステップS1402)。位置決定部25は、ステップS1403〜ステップS1405の処理を所定の回数繰り返した場合、ステップS1406に進む。一方、位置決定部25は、ステップS1403〜ステップS1405の処理を所定の回数繰り返していない場合、ステップS1403に進む。ここで、所定の回数としては、例えば、数千回乃至数万回が挙げられる。   Next, the position determination unit 25 determines whether or not the processing of steps S1403 to S1405 described later has been repeated a predetermined number of times (step S1402). If the position determination unit 25 repeats the processes in steps S1403 to S1405 a predetermined number of times, the position determination unit 25 proceeds to step S1406. On the other hand, if the position determination unit 25 has not repeated the processes of steps S1403 to S1405 a predetermined number of times, the position determination unit 25 proceeds to step S1403. Here, examples of the predetermined number of times include thousands to tens of thousands of times.

ステップS1402において、所定の回数繰り返していないと判定された場合、位置決定部25は、ポインタP及びオブジェクトA〜Dについて、他の荷電粒子から受ける斥力の和を算出する(ステップS1402)。 In step S1402, when it is determined that not repeated the predetermined number of times, the position determining unit 25, the pointer P 1 and the object A 1 to D 1, and calculates the sum of the repulsive force received from other charged particles (Step S1402) .

例えば、図15に示すように、オブジェクトCについて、ポインタPから受ける斥力Fと、他のオブジェクトA〜B及びDからそれぞれ受ける斥力Fと、領域Rの境界の荷電粒子からそれぞれ受ける斥力Fとの和を算出する。このような各斥力F(nは1以上の整数)は、クーロンの法則により、荷電粒子間の第2の距離をr、クーロン定数をk、とすれば、以下の式(4)により表される。したがって、各斥力Fの和Fは、各斥力Fのベクトルの和により算出することができる。 For example, as shown in FIG. 15, the repulsive force F 1 received from the pointer P 1 , the repulsive forces F 2 received from the other objects A 1 to B 1 and D 1, and the charged particles at the boundary of the region R, for the object C 1. calculating the sum of the repulsive force F 3 for receiving respectively from. Each such repulsive force F n (n is an integer equal to or greater than 1) is expressed by the following equation (4), assuming that the second distance between charged particles is r and the Coulomb constant is k 1 according to Coulomb's law. expressed. Accordingly, the sum F of the repulsive force F n can be calculated by the sum of vectors of the repulsive force F n.

Figure 0006435964
Figure 0006435964

位置決定部25は、ポインタP及び他のオブジェクトA〜B及びDについても、上記と同様に、それぞれ他の荷電粒子から受ける斥力の和を算出する。 The position determination unit 25 also calculates the sum of repulsive forces received from other charged particles for the pointer P 1 and the other objects A 1 to B 1 and D 1 in the same manner as described above.

次に、位置決定部25は、時点tにおけるポインタP及びオブジェクトA〜Dの加速度を算出する(ステップS1404)。なお、時点tとは、位置決定部25によりステップS1403〜ステップS1405の処理を繰り返す際に1ずつ加算されるカウンタ変数である。時点tは、初期値を0として、位置決定部25によりステップS1403〜ステップS1405が実行される都度、1ずつ加算される。 Next, the position determination unit 25 calculates the acceleration of the pointer P 1 and the objects A 1 to D 1 at the time point t (step S1404). Note that the time point t is a counter variable that is incremented by one when the position determination unit 25 repeats the processing of steps S1403 to S1405. Time t is incremented by one each time steps S1403 to S1405 are executed by the position determination unit 25 with an initial value of 0.

例えば、オブジェクトAについて、ステップS1403で算出された斥力の和F(ここで、時点tにおける斥力の和FをFと表す)を用いて、運動方程式により、以下の式(5)により表される。 For example, for the object A 1 , using the repulsive force sum F calculated in step S 1403 (where the repulsive force sum F at time t is expressed as F t ), the equation of motion is expressed by the following equation (5). Is done.

Figure 0006435964
Figure 0006435964

なお、上記の式(5)において、質量mは、加速度aを調整するための予め定められた値である。質量mは、ポインタP及びオブジェクトA〜Dのそれぞれについて、同一の値としてもよいし、異なる値としてもよい。 In the above formula (5), the mass m is a predetermined value for adjusting the acceleration a t. The mass m may be the same value or a different value for each of the pointer P 1 and the objects A 1 to D 1 .

位置決定部25は、ポインタP及び他のオブジェクトB〜Dについても、上記と同様に、ステップS1403で算出された斥力の和を用いて、時点tにおける加速度を算出する。 For the pointer P 1 and the other objects B 1 to D 1 , the position determination unit 25 calculates the acceleration at the time point t using the sum of the repulsive forces calculated in step S1403 as described above.

続いて、位置決定部25は、ステップS1404で算出された時点tにおけるポインタP及びオブジェクトA〜Dそれぞれの加速度を用いて、それぞれの領域R内における位置を算出する(ステップS1405)。 Subsequently, the position determination unit 25 calculates the position in each region R using the acceleration of the pointer P 1 and the objects A 1 to D 1 at the time point t calculated in step S1404 (step S1405).

例えば、オブジェクトAについて、ステップS1404で算出された時点tにおける加速度aを用いて、時点t+1における速度vt+1及び位置xt+1は、それぞれ以下の式(6)及び式(7)で表される。ここで、Δtは、時点tから時点t+1となる間に経過した時間として予め設定された値である。 For example, the object A 1, using the acceleration a t at the time t calculated in step S1404, the speed v t + 1 and the position x t + 1 at time t + 1 are represented by the respective following equations (6) and (7) The Here, Δt is a value set in advance as the time elapsed from time t to time t + 1.

Figure 0006435964
Figure 0006435964

Figure 0006435964
Figure 0006435964

なお、式(6)において、時点t=0の速度vは、例えばv=0とすればよい。また、式(7)において、時点t=0の位置xは、ポインタPやオブジェクトA〜Dの初期位置とすればよい。このようにして、位置決定部25は、時点tにおいてポインタP及びオブジェクトA〜Dが受ける斥力から時点t+1におけるポインタP及びオブジェクトA〜Dの位置xt+1を算出する。 In the equation (6), the speed v 0 at the time point t = 0 may be, for example, v 0 = 0. In Expression (7), the position x 0 at the time point t = 0 may be the initial position of the pointer P 1 or the objects A 1 to D 1 . In this way, the position determination unit 25 calculates the position x t + 1 of the pointer P 1 and the object A 1 to D 1 from repulsion pointer P 1 and the object A 1 to D 1 receives at time t at time t + 1.

位置決定部25は、ポインタP及び他のオブジェクトB〜Dについても、上記と同様に、ステップS1404で算出された加速度を用いて、時点t+1における位置を算出する。 The position determination unit 25 also calculates the position at the time point t + 1 for the pointer P 1 and the other objects B 1 to D 1 using the acceleration calculated in step S1404 as described above.

ステップS1402において、所定の回数繰り返したと判定された場合、位置決定部25は、ステップS1405で算出されたポインタP及びオブジェクトA〜Dの位置を、ポインタP及びオブジェクトA〜Dの位置に決定する(ステップS1406)。 In step S1402, if it is determined that repeated a predetermined number of times, the position determining unit 25, the position of the calculated pointer P 1 and the object A 1 to D 1 in step S1405, the pointer P 2 and object A 2 to D 2 (Step S1406).

なお、上記のステップS1405において、式(5)の代わりに、式(5)に対して予め設定された所定の定数kを用いた抵抗を示す項を追加した以下の式(8)を用いてもよい。これにより、よりポインティング操作を行い易い位置にポインタP及びオブジェクトA〜Dの位置を決定できる場合がある。 Incidentally, used in the above step S1405, instead of formula (5), equation (5) preset add the one indicating the resistance using a predetermined constant k 2 were the following equation with respect to (8) May be. Thereby, the positions of the pointer P 1 and the objects A 1 to D 1 may be determined at positions where the pointing operation can be performed more easily.

Figure 0006435964
Figure 0006435964

また、図14では、ポインタP及びオブジェクトA〜Dの電荷並びに領域Rの境界に配置される荷電粒子の電荷をいずれも同一の値qとしたが、これに限られず、それぞれ異なる値としてもよい。例えば、ポインタPの電荷をq、オブジェクトA〜Dをq、領域Rの境界に配置される荷電粒子の電荷をqとしてもよい。さらに、オブジェクトA〜Dのそれぞれの電荷を異なるようにしてもよいし、領域Rの境界に配置されるそれぞれの荷電粒子の電荷も異なるようにしてもよい。例えば、領域Rの形状に応じて、境界に配置される荷電粒子の電荷を異なるようにすることで、よりポインティング操作を行い易い位置にポインタP及びオブジェクトA〜Dの位置を決定できる場合がある。 In FIG. 14, the charge of the pointer P 1 and the objects A 1 to D 1 and the charge of the charged particles arranged at the boundary of the region R are all set to the same value q. It is good. For example, the charge of the pointer P 1 may be q 1 , the objects A 1 to D 1 may be q 2 , and the charge of charged particles arranged at the boundary of the region R may be q 3 . Further, the charges of the objects A 1 to D 1 may be different, and the charges of the charged particles arranged at the boundary of the region R may be different. For example, the positions of the pointer P 1 and the objects A 1 to D 1 can be determined at positions where the pointing operation can be more easily performed by changing the charges of the charged particles arranged at the boundary according to the shape of the region R. There is a case.

また、上記の説明では、ポインタP及びオブジェクトA〜DついてステップS1403〜ステップS1405の処理を繰り返し実行したが、ポインタPについてはステップS1403〜ステップS1405の処理を実行しないようにしてもよい。すなわち、位置決定部25は、ポインタPの位置を、図5のステップS502でポインタPが投影して表示されている位置に決定してもよい。 Further, in the above description, repeatedly performs the processes of steps S1403~ step S1405 with the pointer P 1 and the object A 1 to D 1, the pointer P 1 be configured not to execute the processing of step S1403~ step S1405 Good. That is, the position determining unit 25, the position of the pointer P 1, the pointer P 1 in step S502 of FIG. 5 may be determined to a position which is displayed by projecting.

[ポインティング操作処理]
次に、本実施形態に係る表示システム1においてポインティング操作を行う処理について、図16を参照しながら説明する。図16は、第1の実施形態に係るポインティング操作処理の一例のフローチャートである。上述したように、本実施形態に係る表示システム1では、ポインティング端末10に搭載されたモーションセンサ103から得られる姿勢変化量データを用いて、ポインタによりオブジェクトに対してポインティング操作を行う。なお、以降では、ポインティング端末10により図9に示す投影画像Sが表示されているものとして説明する。
[Pointing operation processing]
Next, processing for performing a pointing operation in the display system 1 according to the present embodiment will be described with reference to FIG. FIG. 16 is a flowchart of an example of a pointing operation process according to the first embodiment. As described above, in the display system 1 according to the present embodiment, a pointing operation is performed on an object with a pointer using posture change amount data obtained from the motion sensor 103 mounted on the pointing terminal 10. In the following, a description will be given assuming that the projected image S 2 shown in FIG. 9 is displayed by pointing device 10.

まず、変化量取得部14は、ポインティング端末10の姿勢が変化したか否かを判定する(ステップS1601)。これは、変化量取得部14がモーションセンサ103から姿勢変化量データを取得したか否かにより判定すればよい。変化量取得部14によりポインティング端末10の姿勢が変化したと判定されていない場合、何もしない。一方、変化量取得部14によりポインティング端末10の姿勢が変化したと判定された場合、ステップS1602に進む。   First, the change amount acquisition unit 14 determines whether or not the posture of the pointing terminal 10 has changed (step S1601). This may be determined based on whether or not the change amount acquisition unit 14 has acquired posture change amount data from the motion sensor 103. If the change amount acquisition unit 14 does not determine that the posture of the pointing terminal 10 has changed, nothing is done. On the other hand, if the change amount acquisition unit 14 determines that the posture of the pointing terminal 10 has changed, the process advances to step S1602.

ステップS1601において、変化量取得部14によりポインティング端末10の姿勢が変化したと判定された場合、変化量取得部14は、モーションセンサ103から取得した姿勢変化量データを変化量算出部27に送信する。そして、変化量算出部27は、姿勢変化量データに基づき、ポインティング端末10の姿勢の変化に伴うオブジェクトA〜Dの位置の変化量を算出する(ステップS1602)。これについて、オブジェクトAの位置の変化量を算出する場合について、図17を参照しながら説明する。なお、以降では、姿勢変化後のオブジェクトAを「オブジェクトA'」とする。 In step S1601, when the change amount acquisition unit 14 determines that the posture of the pointing terminal 10 has changed, the change amount acquisition unit 14 transmits the posture change amount data acquired from the motion sensor 103 to the change amount calculation unit 27. . Then, the change amount calculation unit 27 calculates the change amount of the position of the objects A 2 to D 2 accompanying the change in the posture of the pointing terminal 10 based on the posture change amount data (step S1602). For this, a case of calculating a change amount of the position of the object A 2, will be described with reference to FIG. 17. Hereinafter, the object A 2 after the posture change is referred to as “object A 2 ′”.

まず、図17に示すように、姿勢変化前の投影画像Sにおいて、投影面と水平にx軸として、中心を原点と定める。このとき、図17に示すように、投影画像Sのx軸方向の幅の半分をx(画素)、オブジェクトAのx軸方向の位置をx(画素)、ポインティング端末10の画角をθ、オブジェクトAのx軸の原点からの角度をθa、姿勢変化量データをΔθとする。また、オブジェクトA'のx軸方向の位置をx(画素)とする。このとき、x:x=tanθ:tanθより、以下の式(9)が算出される。 First, as shown in FIG. 17, in the projection image S 2 before the posture change, as the projection surface and the horizontal x-axis defines the center as the origin. At this time, as shown in FIG. 17, half of the width in the x-axis direction of the projection image S 2 is x w (pixel), the position of the object A 2 in the x-axis direction is x a (pixel), and the image of the pointing terminal 10 is displayed. Assume that the angle is θ w , the angle of the object A 2 from the x-axis origin is θa, and the posture change amount data is Δθ. Further, the position in the x-axis direction of the object A 2 ′ is assumed to be x b (pixel). At this time, the following formula (9) is calculated from x w : x a = tan θ w : tan θ a .

Figure 0006435964
Figure 0006435964

また、x:x=tanθ:tan(θ+Δθ)より、以下の式(10)が算出される。 Further, the following formula (10) is calculated from x w : x b = tan θ w : tan (θ a + Δθ).

Figure 0006435964
Figure 0006435964

したがって、変化量算出部27は、式(9)及び式(10)から姿勢変化に伴うオブジェクトAのx軸方向の位置の変化量x−xを算出することができる。同様に、投影画像Sにおいてx軸と直交するy軸においても上記と同様の計算を行うことにより、変化量算出部27は、姿勢変化に伴うオブジェクトAのy軸方向の位置の変化量y−yを算出することができる。これにより、変化量算出部27は、投影画像Sにおいて姿勢変化に伴うオブジェクトAの位置の変化量を算出することができる。なお、他のオブジェクトB〜Dについても上記と同様に位置の変化量が算出される。 Therefore, the change amount calculation unit 27 can calculate the change amount x b −x a of the position in the x-axis direction of the object A 2 accompanying the posture change from the equations (9) and (10). Similarly, by performing the same calculation as described above for the y-axis orthogonal to the x-axis in the projection image S 2 , the change amount calculation unit 27 changes the amount of change in the position of the object A 2 in the y-axis direction due to the posture change. y b −y a can be calculated. Thereby, the change amount calculation unit 27 can calculate the change amount of the position of the object A 2 accompanying the posture change in the projection image S 2 . Note that the amount of change in position is calculated for the other objects B 2 to D 2 as well.

投影画像生成部26は、ステップS1602で算出された位置の変化量に基づき、各オブジェクトA〜Dの位置が、姿勢変化により変化しないように、投影画像データを生成する。そして、投影部12は、投影画像生成部26により生成された投影画像データを投影して、投影画像を表示させる(ステップS1603)。 The projection image generation unit 26 generates projection image data based on the position change amount calculated in step S1602 so that the positions of the objects A 2 to D 2 do not change due to the posture change. Then, the projection unit 12 projects the projection image data generated by the projection image generation unit 26 and displays the projection image (step S1603).

例えば、投影画像生成部26は、上記で算出されたオブジェクトA〜Dの位置の変化量を、姿勢変化後の投影画像データのオブジェクトA'〜D'の位置から減算した投影画像データを生成する。これにより、投影部12により投影される姿勢変化後の投影画像は、ポインタPの位置は姿勢変化に応じて変化して表示される一方で、オブジェクトA〜Dの位置は姿勢変化に関わらず変化せずに表示される。このため、ユーザは、ポインティング端末10を用いて、ポインタPでオブジェクトA〜Dに対してポインティング操作を行うことができる。 For example, the projection image generation unit 26 subtracts the change amount of the positions of the objects A 2 to D 2 calculated above from the positions of the objects A 2 ′ to D 2 ′ of the projection image data after the posture change. Generate data. Thus, the projection image after the posture change is projected by the projection unit 12, the position of the pointer P 2 While that appears to vary in accordance with the attitude change, the position of the object A 2 to D 2 is the posture change Regardless, it is displayed unchanged. Therefore, the user can perform a pointing operation on the objects A 2 to D 2 with the pointer P 2 using the pointing terminal 10.

<第2の実施形態>
次に、第2の実施形態に係る表示システム1について説明する。第2の実施形態の説明では、第1の実施形態との相違点について説明し、第1の実施形態と実施的に同様の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省く。
<Second Embodiment>
Next, a display system 1 according to the second embodiment will be described. In the description of the second embodiment, differences from the first embodiment will be described, and components having the same functional configuration as the first embodiment will be denoted by the same reference numerals. Omit duplicate descriptions.

[機能構成]
図18は、第2の実施形態に係る表示システムの機能構成例を示す図である。第2の実施形態に係る表示システム1の携帯端末20が有する位置決定部25Aは、第1の実施形態と異なる手法により、領域抽出部22により抽出された領域に投影して表示させるポインタ及び各オブジェクトの位置を決定する。より詳しくは、位置決定部25Aは、抽出された領域を囲むバウンディングボックスを、所定の回数、分割する。そして、分割により得られた領域の所定の位置を、ポインタ及び各オブジェクトの位置と決定する。
[Function configuration]
FIG. 18 is a diagram illustrating a functional configuration example of the display system according to the second embodiment. The position determination unit 25A included in the mobile terminal 20 of the display system 1 according to the second embodiment uses a method different from that of the first embodiment to project and display pointers displayed on the area extracted by the area extraction unit 22 and each of the pointers. Determine the position of the object. More specifically, the position determination unit 25A divides the bounding box surrounding the extracted area a predetermined number of times. Then, the predetermined position of the area obtained by the division is determined as the position of the pointer and each object.

[位置の決定処理]
次に、図5のステップS506における位置の決定処理について、図19を参照しながら第2の実施形態を説明する。図19は、第2の実施形態に係る位置の決定処理の一例のフローチャートである。
[Position determination process]
Next, a second embodiment of the position determination process in step S506 of FIG. 5 will be described with reference to FIG. FIG. 19 is a flowchart of an example of position determination processing according to the second embodiment.

まず、位置決定部25Aは、撮像画像において、領域抽出部22により抽出された領域R'をバウンディングボックスQ'で囲む(ステップS1901)。すなわち、位置決定部25Aは、図20(a)に示すように、領域R'をバウンディングボックスQ'で囲む。   First, the position determination unit 25A surrounds the region R ′ extracted by the region extraction unit 22 in the captured image with the bounding box Q ′ (step S1901). That is, the position determination unit 25A surrounds the region R ′ with the bounding box Q ′ as shown in FIG.

なお、位置決定部25Aは、領域R'をバウンディングボックスQ'で囲む際に、有向バウンディングボックスを用いてもよい。有効バウンディングボックスを用いることで、位置決定部25Aは、領域R'を囲む際により適した(すなわち、領域R'に外接する点が多い)バウンディングボックスを求めることができる。   Note that the position determining unit 25A may use a directed bounding box when surrounding the region R ′ with the bounding box Q ′. By using the effective bounding box, the position determination unit 25A can obtain a bounding box that is more suitable when surrounding the region R ′ (that is, there are many points circumscribing the region R ′).

次に、位置決定部25Aは、バウンディングボックスQ'の長手方向を等分するように、バウンディングボックスQ'により囲まれる範囲を分割する(ステップS1902)。すなわち、位置決定部25Aは、図20(a)に示す「1回目の分割」を行う。これにより、バウンディングボックスQ'で囲まれる範囲を分割して、2つの四角形が得られる。   Next, the position determination unit 25A divides the range surrounded by the bounding box Q ′ so that the longitudinal direction of the bounding box Q ′ is equally divided (step S1902). That is, the position determination unit 25A performs the “first division” shown in FIG. Thereby, the range surrounded by the bounding box Q ′ is divided to obtain two quadrangles.

なお、バウンディングボックスQ'が正方形である場合、位置決定部25Aは、所定の1つの辺を等分するように分割すればよい。   When the bounding box Q ′ is a square, the position determination unit 25A may divide the predetermined one side equally.

続いて、位置決定部25Aは、バウンディングボックスQ'により囲まれる範囲の分割により得られた四角形の数が、投影して表示するポインタとオブジェクトの数以上であるかを判定する(ステップS1903)。分割して得られた四角形の数が、投影して表示するポインタとオブジェクトの数未満である場合、ステップS1904に進む。一方、分割して得られた四角形の数が、投影して表示するポインタとオブジェクトの数以上である場合、ステップS1905に進む。   Subsequently, the position determination unit 25A determines whether or not the number of rectangles obtained by dividing the range surrounded by the bounding box Q ′ is equal to or greater than the number of pointers and objects to be projected and displayed (step S1903). If the number of rectangles obtained by the division is less than the number of pointers and objects to be projected and displayed, the process proceeds to step S1904. On the other hand, if the number of rectangles obtained by the division is equal to or greater than the number of pointers and objects to be projected and displayed, the process proceeds to step S1905.

ステップS1903において、分割して得られた四角形の数が、投影して表示するポインタとオブジェクトの数未満である場合、位置決定部25Aは、分割して得られた四角形を、さらに、長手方向を等分するように分割する(ステップS1904)。すなわち、位置決定部25Aは、図20(a)に示す「2回目の分割」を行う。このように、位置決定部25Aは、分割により得られた四角形の数が、投影して表示するポインタとオブジェクトの数以上となるまで、繰り返し分割を行う。   In step S1903, when the number of rectangles obtained by dividing is less than the number of pointers and objects to be projected and displayed, the position determination unit 25A further determines the rectangle obtained by dividing the rectangle in the longitudinal direction. Dividing into equal parts (step S1904). That is, the position determination unit 25A performs the “second division” shown in FIG. As described above, the position determination unit 25A repeatedly performs division until the number of quadrangles obtained by the division is equal to or greater than the number of pointers and objects to be projected and displayed.

ステップS1903において、分割して得られた四角形の数が、投影して表示するポインタとオブジェクトの数以上である場合、位置決定部25Aは、分割して得られた各四角形の重心の位置を、ポインタ及びオブジェクトの位置と決定する(ステップS1905)。すなわち、位置決定部25Aは、図20(b)に示すように、分割により得られた各四角形の重心の位置を、ポインタP及びオブジェクトA〜Dそれぞれの位置と決定する。 In step S1903, when the number of rectangles obtained by division is equal to or greater than the number of pointers and objects to be projected and displayed, the position determination unit 25A determines the position of the center of gravity of each rectangle obtained by division. The position of the pointer and the object is determined (step S1905). That is, the position determination section 25A, as shown in FIG. 20 (b), the position of the center of gravity of each rectangle obtained by dividing, it is determined that the pointer P 2 and object A 2 to D 2, respectively position.

ここで、どの四角形の重心の位置をポインタPの位置とするか、また、一の四角形の重心の位置をオブジェクトA〜Dのいずれの位置とするかは、次のように決定すればよい。すなわち、例えば、領域R'の中心又は重心の位置に最も近い四角形の重心の位置をポインタPの位置とし、このポインタPの位置から所定の順序(例えば、時計回り)で、各四角形の重心の位置をオブジェクトA〜Dの位置とすればよい。 Here, either the position of the center of gravity of which square the position of the pointer P 2, also, whether the position of the center of gravity of one square with any position of the object A 2 to D 2, be determined as follows That's fine. That is, for example, the position of the center of gravity of the quadrangle closest to the center of the region R ′ or the position of the center of gravity is set as the position of the pointer P 2 , and in a predetermined order (for example, clockwise) from the position of the pointer P 2 The position of the center of gravity may be the positions of the objects A 2 to D 2 .

なお、ステップS1903において、四角形の重心の位置が、例えば、領域R'の境界から所定の範囲内にある場合には、この重心をポインタ又はオブジェクトを配置する位置から除外してもよい。四角形の重心の位置が領域R'の境界の付近にあるような場合、この位置にオブジェクト等を配置すると、投影されるオブジェクトが領域R'の外にはみ出てしまうことがあるためである。   In step S1903, for example, when the position of the center of gravity of the rectangle is within a predetermined range from the boundary of the region R ′, the center of gravity may be excluded from the position where the pointer or the object is arranged. This is because when the position of the center of gravity of the rectangle is in the vicinity of the boundary of the region R ′, if the object or the like is placed at this position, the projected object may protrude outside the region R ′.

<第3の実施形態>
次に、第3の実施形態に係る表示システム1について説明する。第3の実施形態の説明では、第1の実施形態との相違点について説明し、第1の実施形態と実施的に同様の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省く。
<Third Embodiment>
Next, a display system 1 according to the third embodiment will be described. In the description of the third embodiment, differences from the first embodiment will be described, and components having functional configurations similar to those of the first embodiment will be denoted by the same reference numerals. Omit duplicate descriptions.

[機能構成]
図21は、第3の実施形態に係る表示システムの機能構成例を示す図である。第3の実施形態に係る表示システム1の携帯端末20が有する拡縮倍率決定部24Aは、位置決定部25により投影して表示させるポインタ及び各オブジェクトの位置が決定された後に、サイズ(拡縮倍率)を決定する点が第1の実施形態と異なる。
[Function configuration]
FIG. 21 is a diagram illustrating a functional configuration example of the display system according to the third embodiment. The enlargement / reduction ratio determination unit 24A of the portable terminal 20 of the display system 1 according to the third embodiment has a size (enlargement / reduction ratio) after the position determination unit 25 determines the pointer to be projected and displayed and the position of each object. The point which determines is different from the first embodiment.

[拡縮倍率の決定処理]
次に、図5のステップS505における拡縮倍率の決定処理について、図21を参照しながら第3の実施形態を説明する。図22は、第3の実施形態に係る拡縮倍率の決定処理の一例のフローチャートである。ここで、上述したように、本実施形態では、図5のステップS505の処理の前に、ステップS506の処理が行われる。すなわち、以降で説明する拡縮倍率の決定処理は、ポインタP及びオブジェクトA〜Dの位置が位置決定部25により決定された後に行われる。なお、ポインタP及びオブジェクトA〜Dの位置の決定は、第2の実施形態の位置決定部25Aにより行われてもよい。
[Determination processing of enlargement / reduction ratio]
Next, the third embodiment will be described with reference to FIG. 21 regarding the scaling factor determination processing in step S505 of FIG. FIG. 22 is a flowchart of an example of a scaling factor determination process according to the third embodiment. Here, as described above, in the present embodiment, the process of step S506 is performed before the process of step S505 of FIG. That is, the scaling factor determination process described below is performed after the positions of the pointer P 2 and the objects A 2 to D 2 are determined by the position determination unit 25. Incidentally, the determination of the position of the pointer P 2 and object A 2 to D 2 may be performed by the position determination unit 25A of the second embodiment.

以降では、オブジェクトAの拡縮倍率sを決定する場合について、説明する。ポインタP及びオブジェクトB〜Dの拡縮倍率を決定する場合についても、以降のステップS2201〜ステップS2203の処理をそれぞれ行えばよい。したがって、本実施形態では、ポインタP及びオブジェクトA〜Dのそれぞれに対して、異なる拡縮倍率が決定される。 In the following, the case of determining the scaling factor s a object A 1, will be described. Also in the case of determining the enlargement / reduction ratio of the pointer P 1 and the objects B 1 to D 1 , the processes in the subsequent steps S2201 to S2203 may be performed. Therefore, in the present embodiment, different scaling factors are determined for each of the pointer P 1 and the objects A 1 to D 1 .

まず、拡縮倍率決定部24Aは、拡縮倍率sで調整せずにオブジェクトAを投影して表示した場合に、撮像部13で撮像することにより生成される撮像画像データにおけるオブジェクトAの外接円の半径rを算出する(ステップS2201)。このような半径rは、オブジェクトAのオブジェクト画像データの外接円の半径に対して、上述した式(1)で用いたBp/Apの正の平方根√(Bp/Ap)を乗じることで算出することができる。なお、オブジェクトAのオブジェクト画像データと、撮像画像データにおけるオブジェクトAとの長さの比を、例えばそれぞれのバウンディングボックスの横幅の比として算出してもよい。 First, scaling factor determining section 24A, when displayed by projecting the object A 1 without adjustment scaling factor s a, circumscribed objects A 1 in the captured image data generated by imaging by the imaging unit 13 calculating the radius r a of the circle (step S2201). Such radius r a, by multiplying relative radius of the circumscribed circle of the object image data of the object A 1, the positive square root √ of Bp / Ap used in the equations (1) to (Bp / Ap) Can be calculated. Incidentally, the object image data of an object A 1, the length ratio of the object A 1 in the captured image data, for example may be calculated as the ratio of the width of each of the bounding box.

次に、拡縮倍率決定部24Aは、位置決定部25により決定された位置にポインタP及びオブジェクトA〜Dが配置された場合における他のオブジェクト等との第2の距離を算出する。すなわち、拡縮倍率決定部24Aは、オブジェクトAとポインタPとの第2の距離T、オブジェクトAと他のオブジェクトB〜Dそれぞれとの第2の距離T〜T、及びオブジェクトAと領域Rの境界との第2の距離Tを算出する。そして、拡縮倍率決定部24Aは、算出されたT〜Tのうち、最小の第2の距離を算出する(ステップS2202)。ここでは、拡縮倍率決定部24Aは、最小の第2の距離としてTを算出したものとする。 Next, scaling factor determining section 24A calculates a second distance to other objects, such as when the pointer P 1 and the object A 1 to D 1 is placed at a position determined by the position determination unit 25. That is, the enlargement / reduction ratio determination unit 24A includes the second distance T 1 between the object A 1 and the pointer P 1 , the second distance T 2 to T 4 between the object A 1 and each of the other objects B 1 to D 1 , And a second distance T 5 between the object A 1 and the boundary of the region R is calculated. Then, the scaling factor determination unit 24A calculates a minimum second distance among the calculated T 1 to T 5 (step S2202). Here, scaling factor determining section 24A is assumed to have calculated T 5 as the minimum of the second distances.

最後に、拡縮倍率決定部24Aは、予め設定された所定の値kを用いて、以下の式(11)により拡縮倍率sを算出する(ステップS2203)。これにより、オブジェクトAに対する拡縮倍率sが算出される。本実施形態では、このようにポインタP及びオブジェクトA〜Dに対して、それぞれ拡縮倍率が算出される。なお、kの値は、本実施形態を実現するプログラムの設計時等に予め定められる。 Finally, scaling factor determining section 24A uses the predetermined value k 3, which is set in advance by the following equation (11) calculates the scaling factor s a (step S2203). Accordingly, scaling factor s a with respect to the object A 1 is calculated. In the present embodiment, the scaling factor is calculated for the pointer P 1 and the objects A 1 to D 1 as described above. The value of k 3 is predetermined in the design or the like of the program to implement this embodiment.

Figure 0006435964
Figure 0006435964

以上に一例を説明したように、第1の実施形態に係る表示システム1によれば、ユーザは、ポインティング操作を行うための平面を選択することができる。このとき、第1の実施形態に係る表示システム1によれば、選択された表示対象物からポインティング操作を行い易い領域を抽出して、この抽出した領域内に、ポインティング操作を行い易いようにポインタやオブジェクトのサイズや位置を調整した上で投影して表示する。これにより、第1の実施形態に係る表示システム1によれば、ユーザが所望する表示対象物から抽出された領域内においてポインティング操作を行うことができ、ユーザのポインティング操作を向上させることができる。   As described above, according to the display system 1 according to the first embodiment, the user can select a plane for performing a pointing operation. At this time, according to the display system 1 according to the first embodiment, a region in which the pointing operation is easily performed is extracted from the selected display object, and the pointer is provided in the extracted region so that the pointing operation can be easily performed. Project and display after adjusting the size and position of the object. Thereby, according to the display system 1 which concerns on 1st Embodiment, a pointing operation can be performed within the area | region extracted from the display target object which a user desires, and a user's pointing operation can be improved.

また、第2の実施形態に係る表示システム1によれば、抽出した領域内に投影されるポインタ及びオブジェクトの位置を、簡易な方法で決定することができる。   In addition, according to the display system 1 according to the second embodiment, the position of the pointer and the object projected in the extracted area can be determined by a simple method.

さらに、第3の実施形態に係る表示システム1によれば、抽出した領域内容に投影されるポインタ及びオブジェクトのサイズを、ポインタ及びオブジェクト毎に決定することができる。これにより、第3の実施形態に係る表示システム1によれば、抽出された領域内に投影させるポインタ及びオブジェクトのサイズをそれぞれ異なるようにすることができる。   Furthermore, according to the display system 1 according to the third embodiment, the size of the pointer and the object projected on the extracted area content can be determined for each pointer and object. Thereby, according to the display system 1 which concerns on 3rd Embodiment, the size of the pointer made to project in the extracted area | region and an object can each be varied.

以上、本発明の実施例について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   As mentioned above, although the Example of this invention was explained in full detail, this invention is not limited to such specific embodiment, In the range of the summary of this invention described in the claim, various deformation | transformation・ Change is possible.

以上の説明に関し、更に以下の項を開示する。
(付記1)
複数のアプリケーションを操作するポインタを表示対象物に投影して表示する表示部と、
前記ポインタが投影された前記表示対象物までの第1の距離を算出する算出部と、
前記第1の距離に基づいて、前記表示対象物において、前記ポインタにより操作される前記複数のアプリケーションに対応する複数のオブジェクトを表示する領域を抽出する抽出部と、
前記領域内において前記複数のオブジェクトが重畳しない位置を、前記複数のオブジェクト及び前記ポインタのそれぞれの相対位置に基づいて決定する決定部と
を有し、
前記表示部は、
前記ポインタと、前記決定された位置に前記複数のオブジェクトとを投影して表示する、表示装置。
(付記2)
前記表示対象物を撮像して画像を得る撮像部を有し、
前記抽出部は、
前記画像における前記表示対象物の画素及び前記第1の距離に基づいて、前記表示対象物において、前記領域を抽出する、付記1に記載の表示装置。
(付記3)
前記決定部は、
さらに、前記ポインタ及び前記複数のオブジェクトの拡縮倍率を、前記画像に基づいて決定する、付記2に記載の表示装置。
(付記4)
前記決定部は、
前記複数のオブジェクトの間の距離、前記ポインタと前記複数のオブジェクトとの間の距離、及び前記領域の境界と前記複数のオブジェクトと間の距離を示す第2の距離に基づいて、前記位置を決定する、付記1ないし3のいずれか1項に記載の表示装置。
(付記5)
前記決定部は、
前記第2の距離を用いた斥力モデルに基づいて、前記位置を決定する、付記4に記載の表示装置。
(付記6)
複数のアプリケーションを操作するポインタを表示対象物に投影して表示し、
前記ポインタが投影された前記表示対象物までの第1の距離を算出し、
前記第1の距離に基づいて、前記表示対象物において、前記ポインタにより操作される前記複数のアプリケーションに対応する複数のオブジェクトを表示する領域を抽出し、
前記領域内において前記複数のオブジェクトが重畳しない位置を、前記複数のオブジェクト及び前記ポインタのそれぞれの相対位置に基づいて決定する
処理を表示装置に実行させ、
前記表示する処理は、
前記ポインタと、前記決定された位置に前記複数のオブジェクトとを投影して表示する、プログラム。
(付記7)
前記表示対象物を撮像して画像を得る処理を前記表示装置に実行させ、
前記抽出する処理は、
前記画像における前記表示対象物の画素及び前記第1の距離に基づいて、前記表示対象物において、前記領域を抽出する、付記6に記載のプログラム。
(付記8)
前記決定する処理は、
さらに、前記ポインタ及び前記複数のオブジェクトの拡縮倍率を、前記画像に基づいて決定する、付記7に記載のプログラム。
(付記9)
前記決定する処理は、
前記複数のオブジェクトの間の距離、前記ポインタと前記複数のオブジェクトとの間の距離、及び前記領域の境界と前記複数のオブジェクトと間の距離を示す第2の距離に基づいて、前記位置を決定する、付記6ないし8のいずれか1項に記載のプログラム。
(付記10)
前記決定する処理は、
前記第2の距離を用いた斥力モデルに基づいて、前記位置を決定する、付記9に記載のプログラム。
(付記11)
複数のアプリケーションを操作するポインタを表示対象物に投影して表示し、
前記ポインタが投影された前記表示対象物までの第1の距離を算出し、
前記第1の距離に基づいて、前記表示対象物において、前記ポインタにより操作される前記複数のアプリケーションに対応する複数のオブジェクトを表示する領域を抽出し、
前記領域内において前記複数のオブジェクトが重畳しない位置を、前記複数のオブジェクト及び前記ポインタのそれぞれの相対位置に基づいて決定する
処理を表示装置が実行し、
前記表示する処理は、
前記ポインタと、前記決定された位置に前記複数のオブジェクトとを投影して表示する、表示方法。
(付記12)
前記表示対象物を撮像して画像を得る処理を表示装置が実行し、
前記抽出する処理は、
前記画像における前記表示対象物の画素及び前記第1の距離に基づいて、前記表示対象物において、前記領域を抽出する、付記11に記載の表示方法。
(付記13)
前記決定する処理は、
さらに、前記ポインタ及び前記複数のオブジェクトの拡縮倍率を、前記画像に基づいて決定する、付記12に記載の表示方法。
(付記14)
前記決定する処理は、
前記複数のオブジェクトの間の距離、前記ポインタと前記複数のオブジェクトとの間の距離、及び前記領域の境界と前記複数のオブジェクトと間の距離を示す第2の距離に基づいて、前記位置を決定する、付記11ないし13のいずれか1項に記載の表示方法。
(付記15)
前記決定する処理は、
前記第2の距離を用いた斥力モデルに基づいて、前記位置を決定する、付記14に記載の表示方法。
Regarding the above description, the following items are further disclosed.
(Appendix 1)
A display unit that projects and displays a pointer for operating a plurality of applications on a display object;
A calculation unit that calculates a first distance to the display object on which the pointer is projected;
Based on the first distance, in the display object, an extraction unit that extracts a region for displaying a plurality of objects corresponding to the plurality of applications operated by the pointer;
A determination unit that determines a position where the plurality of objects do not overlap in the region based on a relative position of each of the plurality of objects and the pointer;
The display unit
A display device that projects and displays the pointer and the plurality of objects at the determined position.
(Appendix 2)
An imaging unit that captures the display object and obtains an image;
The extraction unit includes:
The display device according to appendix 1, wherein the region is extracted from the display object based on a pixel of the display object and the first distance in the image.
(Appendix 3)
The determination unit is
Furthermore, the display device according to appendix 2, wherein scaling factors of the pointer and the plurality of objects are determined based on the image.
(Appendix 4)
The determination unit is
The position is determined based on a distance between the plurality of objects, a distance between the pointer and the plurality of objects, and a second distance indicating a distance between a boundary of the region and the plurality of objects. The display device according to any one of appendices 1 to 3.
(Appendix 5)
The determination unit is
The display device according to appendix 4, wherein the position is determined based on a repulsive force model using the second distance.
(Appendix 6)
Projecting and displaying pointers for operating multiple applications on the display object,
Calculating a first distance to the display object onto which the pointer is projected;
Based on the first distance, in the display object, an area for displaying a plurality of objects corresponding to the plurality of applications operated by the pointer is extracted;
A position where the plurality of objects do not overlap in the region is determined based on a relative position of each of the plurality of objects and the pointer.
The processing to display is
A program for projecting and displaying the pointer and the plurality of objects at the determined position.
(Appendix 7)
Causing the display device to execute a process of capturing an image of the display object and obtaining an image;
The extraction process is:
The program according to appendix 6, wherein the region is extracted from the display object based on a pixel of the display object and the first distance in the image.
(Appendix 8)
The determination process is as follows:
Further, the program according to appendix 7, wherein scaling factors of the pointer and the plurality of objects are determined based on the image.
(Appendix 9)
The determination process is as follows:
The position is determined based on a distance between the plurality of objects, a distance between the pointer and the plurality of objects, and a second distance indicating a distance between a boundary of the region and the plurality of objects. The program according to any one of appendices 6 to 8.
(Appendix 10)
The determination process is as follows:
The program according to appendix 9, wherein the position is determined based on a repulsive force model using the second distance.
(Appendix 11)
Projecting and displaying pointers for operating multiple applications on the display object,
Calculating a first distance to the display object onto which the pointer is projected;
Based on the first distance, in the display object, an area for displaying a plurality of objects corresponding to the plurality of applications operated by the pointer is extracted;
The display device executes a process of determining a position where the plurality of objects do not overlap in the region based on the relative positions of the plurality of objects and the pointer,
The processing to display is
A display method of projecting and displaying the pointer and the plurality of objects at the determined position.
(Appendix 12)
The display device executes a process of obtaining an image by imaging the display object,
The extraction process is:
The display method according to appendix 11, wherein the region is extracted from the display object based on a pixel of the display object and the first distance in the image.
(Appendix 13)
The determination process is as follows:
Furthermore, the display method according to appendix 12, wherein scaling factors of the pointer and the plurality of objects are determined based on the image.
(Appendix 14)
The determination process is as follows:
The position is determined based on a distance between the plurality of objects, a distance between the pointer and the plurality of objects, and a second distance indicating a distance between a boundary of the region and the plurality of objects. 14. The display method according to any one of appendices 11 to 13.
(Appendix 15)
The determination process is as follows:
The display method according to appendix 14, wherein the position is determined based on a repulsive force model using the second distance.

1:表示システム
10:ポインティング端末
11:入力部
12:投影部
13:撮像部
14:変化量取得部
20:携帯端末
21:ポインタ特定部
22:領域抽出部
23:オブジェクト決定部
24:拡縮倍率決定部
25:位置決定部:
26:投影画像生成部
27:変化量算出部
28:画像データ記憶部
29:オブジェクト管理データ記憶部
DESCRIPTION OF SYMBOLS 1: Display system 10: Pointing terminal 11: Input part 12: Projection part 13: Imaging part 14: Change amount acquisition part 20: Portable terminal 21: Pointer specific part 22: Area extraction part 23: Object determination part 24: Enlargement / reduction ratio determination Part 25: Position determining part:
26: Projection image generation unit 27: Change amount calculation unit 28: Image data storage unit 29: Object management data storage unit

Claims (7)

複数のアプリケーションを操作するポインタを表示対象物に投影して表示する表示部と、
前記ポインタが投影された前記表示対象物までの第1の距離を算出する算出部と、
前記第1の距離に基づいて、前記表示対象物において、前記ポインタにより操作される前記複数のアプリケーションに対応する複数のオブジェクトを表示する領域を抽出する抽出部と、
前記領域内において前記複数のオブジェクトが重畳しない位置を、前記複数のオブジェクト及び前記ポインタのそれぞれの相対位置に基づいて決定する決定部と
を有し、
前記表示部は、
前記ポインタと、前記決定された位置に前記複数のオブジェクトとを投影して表示する、表示装置。
A display unit that projects and displays a pointer for operating a plurality of applications on a display object;
A calculation unit that calculates a first distance to the display object on which the pointer is projected;
Based on the first distance, in the display object, an extraction unit that extracts a region for displaying a plurality of objects corresponding to the plurality of applications operated by the pointer;
A determination unit that determines a position where the plurality of objects do not overlap in the region based on a relative position of each of the plurality of objects and the pointer;
The display unit
A display device that projects and displays the pointer and the plurality of objects at the determined position.
前記表示対象物を撮像して画像を得る撮像部を有し、
前記抽出部は、
前記画像における前記表示対象物の画素及び前記第1の距離に基づいて、前記表示対象物において、前記領域を抽出する、請求項1に記載の表示装置。
An imaging unit that captures the display object and obtains an image;
The extraction unit includes:
The display device according to claim 1, wherein the region is extracted from the display object based on a pixel of the display object and the first distance in the image.
前記決定部は、
さらに、前記ポインタ及び前記複数のオブジェクトの拡縮倍率を、前記画像に基づいて決定する、請求項2に記載の表示装置。
The determination unit is
The display device according to claim 2, further comprising: a scaling factor of the pointer and the plurality of objects is determined based on the image.
前記決定部は、
前記複数のオブジェクトの間の距離、前記ポインタと前記複数のオブジェクトとの間の距離、及び前記領域の境界と前記複数のオブジェクトと間の距離を示す第2の距離に基づいて、前記位置を決定する、請求項1ないし3のいずれか1項に記載の表示装置。
The determination unit is
The position is determined based on a distance between the plurality of objects, a distance between the pointer and the plurality of objects, and a second distance indicating a distance between a boundary of the region and the plurality of objects. The display device according to any one of claims 1 to 3.
前記決定部は、
前記第2の距離を用いた斥力モデルに基づいて、前記位置を決定する、請求項4に記載の表示装置。
The determination unit is
The display device according to claim 4, wherein the position is determined based on a repulsive force model using the second distance.
複数のアプリケーションを操作するポインタを表示対象物に投影して表示し、
前記ポインタが投影された前記表示対象物までの第1の距離を算出し、
前記第1の距離に基づいて、前記表示対象物において、前記ポインタにより操作される前記複数のアプリケーションに対応する複数のオブジェクトを表示する領域を抽出し、
前記領域内において前記複数のオブジェクトが重畳しない位置を、前記複数のオブジェクト及び前記ポインタのそれぞれの相対位置に基づいて決定する
処理を表示装置に実行させ、
前記表示する処理は、
前記ポインタと、前記決定された位置に前記複数のオブジェクトとを投影して表示する、プログラム。
Projecting and displaying pointers for operating multiple applications on the display object,
Calculating a first distance to the display object onto which the pointer is projected;
Based on the first distance, in the display object, an area for displaying a plurality of objects corresponding to the plurality of applications operated by the pointer is extracted;
A position where the plurality of objects do not overlap in the region is determined based on a relative position of each of the plurality of objects and the pointer.
The processing to display is
A program for projecting and displaying the pointer and the plurality of objects at the determined position.
複数のアプリケーションを操作するポインタを表示対象物に投影して表示し、
前記ポインタが投影された前記表示対象物までの第1の距離を算出し、
前記第1の距離に基づいて、前記表示対象物において、前記ポインタにより操作される前記複数のアプリケーションに対応する複数のオブジェクトを表示する領域を抽出し、
前記領域内において前記複数のオブジェクトが重畳しない位置を、前記複数のオブジェクト及び前記ポインタのそれぞれの相対位置に基づいて決定する
処理を表示装置が実行し、
前記表示する処理は、
前記ポインタと、前記決定された位置に前記複数のオブジェクトとを投影して表示する、表示方法。
Projecting and displaying pointers for operating multiple applications on the display object,
Calculating a first distance to the display object onto which the pointer is projected;
Based on the first distance, in the display object, an area for displaying a plurality of objects corresponding to the plurality of applications operated by the pointer is extracted;
The display device executes a process of determining a position where the plurality of objects do not overlap in the region based on the relative positions of the plurality of objects and the pointer,
The processing to display is
A display method of projecting and displaying the pointer and the plurality of objects at the determined position.
JP2015072084A 2015-03-31 2015-03-31 Display device, program, and display method Active JP6435964B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015072084A JP6435964B2 (en) 2015-03-31 2015-03-31 Display device, program, and display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015072084A JP6435964B2 (en) 2015-03-31 2015-03-31 Display device, program, and display method

Publications (2)

Publication Number Publication Date
JP2016192094A JP2016192094A (en) 2016-11-10
JP6435964B2 true JP6435964B2 (en) 2018-12-12

Family

ID=57247011

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015072084A Active JP6435964B2 (en) 2015-03-31 2015-03-31 Display device, program, and display method

Country Status (1)

Country Link
JP (1) JP6435964B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7355583B2 (en) * 2004-08-10 2008-04-08 Mitsubishi Electric Research Laboretories, Inc. Motion-based text input
JP5741952B2 (en) * 2010-01-05 2015-07-01 日本電気株式会社 Display system, display method, and program
JP5647968B2 (en) * 2011-11-22 2015-01-07 株式会社ソニー・コンピュータエンタテインメント Information processing apparatus and information processing method
JP2014192808A (en) * 2013-03-28 2014-10-06 Ricoh Co Ltd Projection apparatus and program

Also Published As

Publication number Publication date
JP2016192094A (en) 2016-11-10

Similar Documents

Publication Publication Date Title
CN109727312B (en) Point cloud labeling method, point cloud labeling device, computer equipment and storage medium
KR102051889B1 (en) Method and system for implementing 3d augmented reality based on 2d data in smart glass
KR101082829B1 (en) The user interface apparatus and method for 3D space-touch using multiple imaging sensors
JP6302219B2 (en) MTF measuring apparatus and MTF measuring program
US9697581B2 (en) Image processing apparatus and image processing method
CN110457512B (en) Map display method, map display device, server, terminal and storage medium
JP2018120283A (en) Information processing device, information processing method and program
JP6896452B2 (en) Image processing equipment, image processing methods and programs
EP3410396A1 (en) Moving object tracking apparatus, moving object tracking method, and computer-readable medium
EP3579195A1 (en) Image processing for index-based storage of a polygonal mesh generated from a depth camera image
JP6435964B2 (en) Display device, program, and display method
CN116778094B (en) Building deformation monitoring method and device based on optimal viewing angle shooting
JPWO2015118756A1 (en) Information processing apparatus, information processing method, and program
CN115176284A (en) Image processing apparatus, image processing method, and image processing program
EP3059663B1 (en) A method and a system for interacting with virtual objects in a three-dimensional space
JP2017184136A (en) Information processing device, information processing method, information processing system, and program
US10861174B2 (en) Selective 3D registration
JP2018132319A (en) Information processing apparatus, control method of information processing apparatus, computer program, and memory medium
JP2017016166A (en) Image processing apparatus and image processing method
KR20190029842A (en) Three-Dimensional Restoration Cloud Point Creation Method Using GPU Accelerated Computing
JP6634769B2 (en) Voxel processing method, voxel processing program and information processing apparatus
JP7374433B2 (en) How to generate three-dimensional shape data of a structure
EP3961556A1 (en) Object recognition device and object recognition method
JP6405539B2 (en) Label information processing apparatus for multi-viewpoint image and label information processing method
JP6216143B2 (en) Image processing apparatus, control method thereof, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181016

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181029

R150 Certificate of patent or registration of utility model

Ref document number: 6435964

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150