JP2012008808A - Information processor - Google Patents

Information processor Download PDF

Info

Publication number
JP2012008808A
JP2012008808A JP2010144219A JP2010144219A JP2012008808A JP 2012008808 A JP2012008808 A JP 2012008808A JP 2010144219 A JP2010144219 A JP 2010144219A JP 2010144219 A JP2010144219 A JP 2010144219A JP 2012008808 A JP2012008808 A JP 2012008808A
Authority
JP
Japan
Prior art keywords
objects
display
distance
order
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010144219A
Other languages
Japanese (ja)
Other versions
JP5627314B2 (en
JP2012008808A5 (en
Inventor
Motoki Nakama
基起 仲間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010144219A priority Critical patent/JP5627314B2/en
Publication of JP2012008808A publication Critical patent/JP2012008808A/en
Publication of JP2012008808A5 publication Critical patent/JP2012008808A5/ja
Application granted granted Critical
Publication of JP5627314B2 publication Critical patent/JP5627314B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology for allowing an object to be easily selected even when objects overlap or it is displayed at an inaccessible position.SOLUTION: Order of a plurality of objects is held at a hold part 301 and a remote operation distance from an object to a display picture of the display is acquired at a distance acquisition part 300. At a selection part 304, on the basis of the order of a plurality of objects and remote operation distance acquired, an object is selected.

Description

本発明は、表示オブジェクトに対する操作性を向上する技術に関する。 The present invention relates to a technique for improving operability for a display object.

電子化されたドキュメントを大型のテーブル・ディスプレイや壁面ディスプレイに表示し、表示されたドキュメントをインタラクティブに操作可能にすることで、アイディアの整理や議論の活性化を支援するシステムが注目されている。このようなシステムでは、ディスプレイにタッチパネルやデジタイザなどが組み込まれており、画面上に表示されたドキュメント(オブジェクト)をタッチ操作するといった、直感的なオブジェクト操作が可能である。一般的にタッチパネルを利用した操作は、情報機器に不慣れなユーザにも馴染みやすいため、モバイル端末やコピー機など多くの情報機器で利用されるようになっている。   Attention has been focused on systems that support organizing ideas and activating discussion by displaying digitized documents on a large table display or wall display and making the displayed documents interactively operable. In such a system, a touch panel, a digitizer, and the like are incorporated in the display, and an intuitive object operation such as a touch operation on a document (object) displayed on the screen is possible. In general, an operation using a touch panel is easily used by a user who is unfamiliar with information equipment, and is used in many information equipment such as mobile terminals and copiers.

これらタッチパネル式の情報処理装置は、誰でも簡単に目的のオブジェクトをタッチ操作で選択できることが求められているが、表示されるオブジェクトが小さい場合には間違ったオブジェクトを選択してしまう可能性が高い。また、同様に隣り合うオブジェクトの間隔が狭い場合なども間違って隣のオブジェクトをタッチ選択してしまう。   These touch panel type information processing devices are required to allow anyone to easily select a target object by touch operation, but if the displayed object is small, there is a high possibility of selecting the wrong object. . Similarly, when the interval between adjacent objects is narrow, the adjacent object is erroneously selected by touch.

このような課題を解決するため、特許文献1は、操作者の指先が接近したことを検出して、指先と表示画面間の距離を求め、その距離が小さくなるにつれて、ユーザが選択したい表示オブジェクトを選択しやすいように大きく表示する処理を行う。   In order to solve such a problem, Patent Literature 1 detects that the fingertip of the operator has approached, obtains the distance between the fingertip and the display screen, and the display object that the user wants to select as the distance decreases. A process of displaying a large image so that it is easy to select is performed.

特開2009‐259110号公報JP 2009-259110 A

しかし、テーブル上に表示されたオブジェクトをタッチして選択する場合、特許文献1では、表示オブジェクトが重なって表示されている場合、タッチ操作でオブジェクトを選択するのは煩わしく、操作性を低下させてしまう。   However, when an object displayed on the table is selected by touching, in Patent Document 1, if the display object is displayed in an overlapping manner, it is troublesome to select the object by a touch operation, which reduces the operability. End up.

また、テーブル上に表示されたオブジェクトをタッチして選択する場合、特許文献1では、選択するオブジェクトが操作者の手の届かない距離に表示されていると選択できない。例えば、図1(a)において操作者Aは、手が届かないため表示されているオブジェクト103dや103eを直接タッチして選択することができない。   In addition, when an object displayed on the table is selected by touching, in Patent Document 1, it is not possible to select if the object to be selected is displayed at a distance that the operator cannot reach. For example, in FIG. 1A, the operator A cannot select by directly touching the displayed objects 103d and 103e because the hand is out of reach.

本発明は、上記課題を考慮してなされたもので、オブジェクトが重なっている場合や手の届かない場所に表示されていても、オブジェクトを容易に選択することが可能な情報処理装置を提供することを目的とする。   The present invention has been made in consideration of the above problems, and provides an information processing apparatus capable of easily selecting an object even when the objects are overlapped or displayed in a place out of reach. For the purpose.

上記課題を解決するために、本発明の情報処理装置は、表示部に表示されている複数のオブジェクトから、オブジェクトを選択する情報処理装置であって、前記複数のオブジェクトの順序を保持する保持手段と、物体から前記表示部の表示画面までの遠隔操作距離を取得する距離取得手段と、前記複数のオブジェクトの順序と前記取得した遠隔操作距離に基づいて、オブジェクトを選択するオブジェクト選択手段を有することを特徴とする。   In order to solve the above-described problem, an information processing apparatus according to the present invention is an information processing apparatus that selects an object from a plurality of objects displayed on a display unit, and holds the order of the plurality of objects Distance acquisition means for acquiring a remote operation distance from the object to the display screen of the display unit, and object selection means for selecting an object based on the order of the plurality of objects and the acquired remote operation distance. It is characterized by.

本発明によれば、重なって表示されているため選択しにくいオブジェクトや、遠くに表示されて選択できないオブジェクトを容易に選択することが可能となる。   According to the present invention, it is possible to easily select an object that is difficult to select because it is displayed overlappingly, or an object that is displayed far away and cannot be selected.

情報処理装置のシステム概要図。The system schematic diagram of information processing apparatus. 情報処理装置のハードウェア構成図。The hardware block diagram of information processing apparatus. 情報処理装置の機能ブロック図。The functional block diagram of information processing apparatus. オブジェクト選択処理の説明図。Explanatory drawing of an object selection process. 情報処理装置の処理を示すメインフローチャート。The main flowchart which shows the process of information processing apparatus. 初期画面表示処理のフローチャート。The flowchart of an initial screen display process. オブジェクト選択処理のフローチャート。The flowchart of an object selection process. 第2の実施形態の具体例を示す図。The figure which shows the specific example of 2nd Embodiment. 遠隔操作距離算出方法を示す図。The figure which shows the remote operation distance calculation method. 第2の実施形態におけるオブジェクト選択順の説明図。Explanatory drawing of the object selection order in 2nd Embodiment. 第3の実施形態における情報処理装置の概観図。FIG. 9 is an overview diagram of an information processing apparatus according to a third embodiment. 対応付けのテーブルを示す図。The figure which shows the table of matching. 物体とオブジェクトの位置情報取得方法を示す図。The figure which shows the positional infomation acquisition method of an object and an object.

以下、本発明の実施形態について図面を参照して詳細に説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すものであり、これに限るものではない。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In addition, embodiment described below shows an example at the time of implementing this invention concretely, and is not restricted to this.

[第1の実施形態]
図1(A)は、本実施形態におけるシステム概要図である。テーブル型ディスプレイ101、壁面型ディスプレイ102を利用して、アイディアの整理や議論をインタラクティブに行うためのシステムである。参加者A、Bは表示装置であるディスプレイ(101、102)に表示されたオブジェクト(103a〜103e)を指や手を使ってタッチ操作、もしくはジェスチャ操作することで選択し、操作する。
[First Embodiment]
FIG. 1A is a system outline diagram in this embodiment. This is a system for interactively organizing and discussing ideas using a table-type display 101 and a wall-type display 102. Participants A and B select and operate the objects (103a to 103e) displayed on the displays (101 and 102), which are display devices, by touch operation or gesture operation using fingers or hands.

図1(B)では、下方と側方の両方向に投影可能なプロジェクタ104を利用してテーブル型ディスプレイ101、壁面型ディスプレイ102の両方にプロジェクタ104を用いてオブジェクトを投影するシステム1001の例を示す。また、オブジェクトに対するジェスチャ操作を認識するためのセンサとして距離センサ105を利用する。これらの各デバイスは、情報処理装置100とネットワークもしくはUSBによって接続されており、協調して機能する。図1(B)では、2つの表示装置と一つの距離センサを利用する例を示したが、その限りではない。表示装置は1つでも良く、プロジェクタ104のような投影型表示装置ではなく、図1(C)に示したような、タッチパネルが組み込まれた大型ディスプレイをテーブルもしくは壁面に設置して利用してもよい。また、センサも距離情報を算出可能なセンサとして、複数の近接センサや超音波センサを利用してもよい。また画像の解析結果から距離情報を算出することも可能である。   FIG. 1B illustrates an example of a system 1001 that projects an object using the projector 104 on both the table-type display 101 and the wall-type display 102 using the projector 104 that can project in both the downward and lateral directions. . Further, the distance sensor 105 is used as a sensor for recognizing a gesture operation on the object. Each of these devices is connected to the information processing apparatus 100 via a network or USB, and functions in cooperation. Although FIG. 1B illustrates an example in which two display devices and one distance sensor are used, the present invention is not limited to this. There may be only one display device, not a projection display device such as the projector 104, but a large display incorporating a touch panel as shown in FIG. Good. Also, a plurality of proximity sensors and ultrasonic sensors may be used as sensors that can calculate distance information. It is also possible to calculate distance information from the analysis result of the image.

図2は本実施形態における、情報処理装置100のハードウェア構成図である。情報処理装置100は、CPU200(Central Processing Unit)、RAM(Random Access Memory)201、ROM(Read Only Memory)202、バス203から構成される。またさらに、ディスプレイI/F204、ストレージI/F205、ストレージ206、入力I/F207から構成される。ただし、本発明はこれらのインターフェースだけに限らない。タッチパネルI/FやメモリーカードI/Fなどのインターフェースを含み、それを利用して情報処理装置を実現しても構わない。   FIG. 2 is a hardware configuration diagram of the information processing apparatus 100 in the present embodiment. The information processing apparatus 100 includes a CPU 200 (Central Processing Unit), a RAM (Random Access Memory) 201, a ROM (Read Only Memory) 202, and a bus 203. Further, the display I / F 204, the storage I / F 205, the storage 206, and the input I / F 207 are included. However, the present invention is not limited to these interfaces. An information processing apparatus may be realized using an interface such as a touch panel I / F or a memory card I / F.

以下、情報処理装置100のハードウェア構成について、その詳細を説明する。   Hereinafter, details of the hardware configuration of the information processing apparatus 100 will be described.

CPU200は、RAM201、ROM202、バス203を利用して情報処理装置100全体の制御を行う。ここでは図示されていないが、オペレーティングシステム(以下OS)をはじめ、本発明に係る各処理プログラム、デバイスドライバ等はROM202に記憶されており、RAM201に一時記憶され、CPU200によって適宜実行される。ここでOSおよび各処理プログラム等はストレージ206に記憶されていてもよく、その場合は電源投入時にRAM201に適宜読み込まれ、CPU200によって起動される。   The CPU 200 controls the entire information processing apparatus 100 using the RAM 201, the ROM 202, and the bus 203. Although not shown here, an operating system (hereinafter referred to as OS), each processing program according to the present invention, a device driver, and the like are stored in the ROM 202, temporarily stored in the RAM 201, and appropriately executed by the CPU 200. Here, the OS, each processing program, and the like may be stored in the storage 206, in which case they are appropriately read into the RAM 201 when the power is turned on, and are activated by the CPU 200.

ディスプレイI/F204は、情報処理装置100内部で作成される表示画面をディスプレイ101が処理可能な信号に変換する。ストレージI/F205は、情報処理装置100内部で利用可能な映像データ形式とストレージ206に記憶するための映像データ形式を互いに変換する。入力I/F207は、距離センサ105からの距離情報を入力信号として受信し、情報処理装置100が処理可能な情報に変換する。   The display I / F 204 converts a display screen created in the information processing apparatus 100 into a signal that can be processed by the display 101. The storage I / F 205 mutually converts a video data format that can be used inside the information processing apparatus 100 and a video data format to be stored in the storage 206. The input I / F 207 receives distance information from the distance sensor 105 as an input signal, and converts the information into information that can be processed by the information processing apparatus 100.

ストレージ206は、ハードディスクドライブ装置に代表される大容量情報記憶装置であって、ストレージ206には情報処理装置100で表示するためのオブジェクトが膨大に記録されている。ストレージ206自体は、情報処理装置100内部に搭載されていても良いし、イーサネット(登録商標)やUSB、メモリーカードI/Fなどの各種インターフェースを介して接続されていてもよい。またその際、ストレージ206は複数台接続されていても構わない。尚、以下特に断らない限り、他図を用いて説明されたものは同一の符号を付し、その説明を省略する。   The storage 206 is a large-capacity information storage device typified by a hard disk drive device, and a large number of objects to be displayed on the information processing apparatus 100 are recorded in the storage 206. The storage 206 itself may be mounted inside the information processing apparatus 100 or may be connected via various interfaces such as Ethernet (registered trademark), USB, and memory card I / F. At that time, a plurality of storages 206 may be connected. In addition, unless otherwise indicated below, what was demonstrated using the other figure attaches | subjects the same code | symbol, and abbreviate | omits the description.

図3(A)は本実施形態における情報処理装置100の機能ブロック図である。情報処理装置100は、距離取得部300、保持部301、オブジェクト取得部302、表示制御部303、選択部304から構成される。上記これらの各機能ブロックはハードウェア、ソフトウェアの組み合わせによって様々な形態で実現できる。   FIG. 3A is a functional block diagram of the information processing apparatus 100 in the present embodiment. The information processing apparatus 100 includes a distance acquisition unit 300, a holding unit 301, an object acquisition unit 302, a display control unit 303, and a selection unit 304. Each of these functional blocks can be realized in various forms by a combination of hardware and software.

本実施形態では、ストレージ206に記憶されているデータ(オブジェクト)は主にマルチメディアデータであり、映像や静止画、音声データ、各種電子化ドキュメントである。以降これらデータをオブジェクトと記述する。これらオブジェクトには作成日時の情報や編集日時の情報、グループの情報など、オブジェクトの順序を決定するために必要なメタ情報が付与されているものとする。しかし、本実施形態はこれらのメタ情報に限定して利用されるものではない。例えば、オブジェクトの順序を決定するためのメタ情報がない場合は、オブジェクトを読み込んだ後、各オブジェクトの名前でオブジェクトをソートすることで、オブジェクトの順序を決定してもよい。   In the present embodiment, data (objects) stored in the storage 206 are mainly multimedia data, such as video, still images, audio data, and various electronic documents. These data are hereinafter referred to as objects. These objects are given meta information necessary for determining the order of the objects, such as creation date / time information, editing date / time information, and group information. However, the present embodiment is not limited to such meta information. For example, when there is no meta information for determining the order of the objects, the order of the objects may be determined by sorting the objects by the name of each object after reading the objects.

情報処理装置100が起動すると、オブジェクト取得部302は表示するオブジェクトとメタ情報をストレージ206から読み出す。読み出したオブジェクト及びメタ情報はRAM201に保持される。この時、読み出したデータがRAM201に対して大きすぎる場合は、読み込むデータを小分けにして順次読み込んで処理しても構わない。または、即座に読み出し可能なスワップデータとしてストレージ206に退避させておいても構わない。   When the information processing apparatus 100 is activated, the object acquisition unit 302 reads an object to be displayed and meta information from the storage 206. The read object and meta information are held in the RAM 201. At this time, if the read data is too large for the RAM 201, the read data may be subdivided and processed sequentially. Alternatively, it may be saved in the storage 206 as swap data that can be read immediately.

保持部301は、RAM201に保持されているオブジェクトのメタ情報からオブジェクトの順序を決定し、保持する。ここでは、オブジェクトの順序を、表示画面上でオブジェクトが属している表示レイヤーの順とする。   The holding unit 301 determines the order of the objects from the meta information of the objects held in the RAM 201 and holds them. Here, the order of the objects is the order of the display layers to which the objects belong on the display screen.

表示制御部303は、RAM201に保持されているオブジェクトから表示画面を生成しディスプレイ101に出力する。表示制御部303で作成される表示画面の一例を図4の400に示す。図4では、401a、401b、401cがディスプレイ101に表示出力されたオブジェクトを示している。   The display control unit 303 generates a display screen from the objects held in the RAM 201 and outputs the display screen to the display 101. An example of a display screen created by the display control unit 303 is shown by 400 in FIG. In FIG. 4, 401 a, 401 b, and 401 c indicate objects displayed and output on the display 101.

情報処理装置100に対する操作は、手や指などの物体を使いジェスチャ操作(遠隔操作指示)することによって行う。オブジェクトが表示装置(ディスプレイ101)に表示されている状態で、距離取得部300が、物体を検出すると、オブジェクト選択処理を開始する。距離取得部300は、物体を検出し、物体から表示画面までの遠隔操作距離を算出する。そして算出した遠隔操作距離を選択部304に入力する。以下では、物体の一例である手を用いて説明する。   The information processing apparatus 100 is operated by performing a gesture operation (remote operation instruction) using an object such as a hand or a finger. When the distance acquisition unit 300 detects an object while the object is displayed on the display device (display 101), the object selection process is started. The distance acquisition unit 300 detects an object and calculates a remote operation distance from the object to the display screen. Then, the calculated remote operation distance is input to the selection unit 304. Below, it demonstrates using the hand which is an example of an object.

選択部304は、保持部301で保持しているオブジェクトの順序と距離取得部300で取得した遠隔操作距離とから、オブジェクトを操作対象として選択する。   The selection unit 304 selects an object as an operation target from the order of the objects held by the holding unit 301 and the remote operation distance acquired by the distance acquisition unit 300.

図4を用いて、本実施形態のオブジェクト選択処理の概要を説明する。   The outline of the object selection process of this embodiment will be described with reference to FIG.

図4の400は、本実施形態におけるオブジェクトが表示されている表示画面の一例を示しており、複数のオブジェクト401a、401b、401cが一画面上に表示されている。   Reference numeral 400 in FIG. 4 shows an example of a display screen on which objects are displayed in this embodiment, and a plurality of objects 401a, 401b, 401c are displayed on one screen.

一般的にディスプレイに表示された複数のオブジェクトを個別に選択可能とするには、オブジェクトを1つの表示レイヤーで管理する必要がある。オブジェクトが表示レイヤー毎に管理されている状態を図4の(401x、401y、401z)に示す。   In general, in order to individually select a plurality of objects displayed on a display, it is necessary to manage the objects with one display layer. A state in which the object is managed for each display layer is shown in (401x, 401y, 401z) in FIG.

本実施形態においても、各オブジェクトを表示レイヤーで管理する。また保持部301は、オブジェクトが属するレイヤーの順序に基づいて、オブジェクトの順序を決定し、保持する。   Also in this embodiment, each object is managed by the display layer. The holding unit 301 determines and holds the order of the objects based on the order of the layers to which the objects belong.

表示制御部303は、オブジェクトを各表示レイヤーで管理し、表示レイヤーを表示レイヤー順に重ね合わせることにより1つの表示画面を生成し、ディスプレイに出力する。そのようにして生成した表示画面が図4の表示画面400である。   The display control unit 303 manages objects in each display layer, generates one display screen by superimposing the display layers in the order of display layers, and outputs the display screen to the display. The display screen generated in this way is the display screen 400 of FIG.

表示画面400が表示されている状態で、物体403を使ってジェスチャ入力を行う。本実施形態におけるジェスチャ入力は、表示画面400に対して手を垂直方向に動かす操作である。そのジェスチャ入力を距離取得部300によって検出し、遠隔操作距離を算出する。本実施形態では、ジェスチャ入力を、表示画面400や物体403よりも上部に取り付けられた距離センサ105によってジェスチャ操作を検出し、遠隔操作距離を算出する。   While the display screen 400 is displayed, gesture input is performed using the object 403. The gesture input in the present embodiment is an operation of moving the hand in the vertical direction with respect to the display screen 400. The gesture input is detected by the distance acquisition unit 300, and the remote operation distance is calculated. In the present embodiment, a gesture operation is detected by a distance sensor 105 attached above the display screen 400 and the object 403, and a remote operation distance is calculated.

本実施形態における具体的な遠隔操作距離の算出方法を図9に示す。ここでは、物体の一例である手を用いて説明する。まず距離センサ105からディスプレイ101の表示画面101までの垂直距離Dh1を距離センサ105で取得する。そしてさらに、ジェスチャ操作を行う手の甲を認識し、距離センサ105から手の甲までの垂直距離Dh2を距離センサ105で取得する。本実施形態で算出する遠隔操作距離xは表示画面と手の垂直距離であり、x=Dh1−Dh2 で算出できる。本実施形態では距離センサを利用して遠隔操作距離を算出したが、その限りではない。表示画面400上に近接センサや超音波センサを設置して、センサの情報から遠隔操作距離を算出しても良い。   A specific method for calculating the remote operation distance in the present embodiment is shown in FIG. Here, a description will be given using a hand which is an example of an object. First, the distance sensor 105 obtains the vertical distance Dh1 from the distance sensor 105 to the display screen 101 of the display 101. Further, the back of the hand performing the gesture operation is recognized, and the distance sensor 105 acquires the vertical distance Dh2 from the distance sensor 105 to the back of the hand. The remote operation distance x calculated in the present embodiment is the vertical distance between the display screen and the hand, and can be calculated by x = Dh1-Dh2. In the present embodiment, the remote operation distance is calculated using the distance sensor, but this is not a limitation. A proximity sensor or an ultrasonic sensor may be installed on the display screen 400, and the remote operation distance may be calculated from the sensor information.

次に、選択部304は、保持部301で保持しているオブジェクトの順序に従って、算出した遠隔操作距離から、オブジェクトを選択する。   Next, the selection unit 304 selects an object from the calculated remote operation distance according to the order of the objects held by the holding unit 301.

本実施形態では、オブジェクトの順序は表示レイヤー順に基づく。従ってオブジェクトの順序は図4に示すように、表示レイヤー順であるObject1(401a)、Object2(401b)、Object3(401c)となっている。この時、ジェスチャ操作を行う物体403と表示画面400までの遠隔操作距離xが、0<x<=aの場合はObject3を操作対象として、選択し、a<x<=bの場合はObject2を操作対象として選択する。同様に遠隔操作距離xが、b<x<=cの場合はObject3を操作対象として選択する。またx=0およびc<xの場合はジェスチャ操作対象外とし、オブジェクトを選択しない。   In the present embodiment, the order of objects is based on the order of display layers. Therefore, as shown in FIG. 4, the order of the objects is the display layer order Object1 (401a), Object2 (401b), and Object3 (401c). At this time, if the remote operation distance x between the object 403 on which the gesture operation is performed and the display screen 400 is 0 <x <= a, Object3 is selected as an operation target, and if a <x <= b, Object2 is selected. Select as an operation target. Similarly, when the remote operation distance x is b <x <= c, Object3 is selected as an operation target. When x = 0 and c <x, the object is not selected for gesture operation and no object is selected.

オブジェクトの順序(本実施形態では表示レイヤー順)と距離を対応付けてオブジェクトを選択するため、表示オブジェクトが重なって表示されている場合でも、オブジェクトを簡単に選択できる。   Since the object order is selected by associating the object order (display layer order in this embodiment) with the distance, the object can be easily selected even when the display objects are displayed in an overlapping manner.

また本実施形態のように、表示レイヤーが上位であるオブジェクトを長い距離に対応付け(マッピング)することで操作するユーザの感覚にマッチさせ、より直感的にオブジェクトを選択することも可能である。   In addition, as in the present embodiment, it is possible to match an object having a higher display layer with a long distance (mapping) to match the sense of the user who operates, and to select the object more intuitively.

さらに、図4の404a、404b、404cで示すように、表示制御部303は、選択されているオブジェクトをディスプレイに強調表示し、距離と選択オブジェクトの対応付けを405a、405b、405cで示すインジケータでフィードバック表示する。このようなフィードバック表示を行うことで、ユーザは次にどのようにジェスチャ入力を行えば選択したいオブジェクトを選択できるのかを予め知ることができ、より使い勝手の良いユーザインターフェース(以下UI)を実現できる。   Furthermore, as indicated by 404a, 404b, and 404c in FIG. 4, the display control unit 303 highlights the selected object on the display, and an indicator that indicates the correspondence between the distance and the selected object is indicated by 405a, 405b, and 405c. Display feedback. By performing such feedback display, the user can know in advance how to perform gesture input next to select an object to be selected, thereby realizing a user interface (hereinafter referred to as UI) that is easier to use.

本実施形態では、ユーザ操作のし易さを考慮して手を上下させる範囲(操作可能な距離)を60cmとし、その範囲を3分割することによって、境界a、b、cとする。しかし、この限りではない。オブジェクトを操作するユーザの状態(立っているのか、座っているのか)によって手の上下操作のし易い範囲も異なってくる。従って操作者の状態を認識して、手を上下させる範囲を動的に変更してもよい。尚、操作可能な距離は、情報処理装置100のROM202で予め保持しているものとする。   In the present embodiment, the range in which the hand is moved up and down (operable distance) is set to 60 cm in consideration of ease of user operation, and the range is divided into three to be boundaries a, b, and c. However, this is not the case. The range in which the user can operate the hand up and down varies depending on the state of the user operating the object (standing or sitting). Therefore, the range in which the hand is moved up and down may be dynamically changed by recognizing the state of the operator. Note that the operable distance is stored in advance in the ROM 202 of the information processing apparatus 100.

また、操作するオブジェクトの総数によっても手を上下させる範囲や分割数(境界数)異なってくる。例えば、操作対象オブジェクトが6個の場合は、60cmを6分割することによってオブジェクトと距離を対応付けてもよい。また逆に、手の上下操作の分解能を2cmに固定して、操作対象オブジェクトの数に応じて、手を上下させる範囲を決定してもよい。このように、手を上下させる範囲の最小値Minと最大値Maxは、様々な方法で決定できる。   Further, the range in which the hand is moved up and down and the number of divisions (number of boundaries) vary depending on the total number of objects to be operated. For example, when there are six operation target objects, the distance may be associated with the object by dividing 60 cm into six. Conversely, the resolution of the up / down operation of the hand may be fixed to 2 cm, and the range in which the hand is moved up / down may be determined according to the number of operation target objects. As described above, the minimum value Min and the maximum value Max of the range in which the hand is moved up and down can be determined by various methods.

図5(A)は本実施形態における情報処理装置100の処理の流れを示すフローチャートである。このフローチャートを参照して、本実施形態におけるデータ表示処理、およびオブジェクト選択処理の詳細を説明する。   FIG. 5A is a flowchart showing the flow of processing of the information processing apparatus 100 in the present embodiment. Details of the data display process and the object selection process in this embodiment will be described with reference to this flowchart.

情報処理装置100はデータ表示処理を開始すると、まずオブジェクト取得部302において、表示するオブジェクトと順序を決定するために利用されるメタ情報を取得し、RAM201に保持する。次に保持部301にて取得したメタ情報からオブジェクトの順序を保持し、この情報もRAM201に保持する(S10)。第1の実施形態の場合は表示レイヤーの順序に基づいてオブジェクトの順序と決定する。   When the information processing apparatus 100 starts the data display process, the object acquisition unit 302 first acquires meta information used to determine the objects to be displayed and the order, and stores them in the RAM 201. Next, the order of the objects is held from the meta information acquired by the holding unit 301, and this information is also held in the RAM 201 (S10). In the case of the first embodiment, the order of objects is determined based on the order of display layers.

オブジェクトの順序が決定すると、初期画面表示処理(S11)を実行する。   When the order of the objects is determined, an initial screen display process (S11) is executed.

図6は初期画面表示処理(S11)の処理フロー図である。初期画面表示処理は、RAM201に保持されたオブジェクトの表示レイヤー順とオブジェクトから表示画面を作成する。表示制御部303は、オブジェクトの表示レイヤーが低位のものから順に重ねて表示画面を作成する(S20)。そして、作成した画面をディスプレイ101に表示出力する(S21)。この時、ディスプレイ101に表示される初期画面の一例を図4の400に示す。以上の処理で初期画面表示処理(S11)は完了し、呼び出し元にその結果がリターンされる。   FIG. 6 is a process flow diagram of the initial screen display process (S11). In the initial screen display process, a display screen is created from the object display layer order and the objects held in the RAM 201. The display control unit 303 creates a display screen by overlapping the display layers of the objects in order from the lowest (S20). Then, the created screen is displayed and output on the display 101 (S21). At this time, an example of an initial screen displayed on the display 101 is shown as 400 in FIG. With the above processing, the initial screen display processing (S11) is completed, and the result is returned to the caller.

初期画面表示処理(S10)が終了すると、距離センサ105にて、遠隔操作の検知を行う(S12)。遠隔操作を検知しなかった場合(S12、N)は、何も行わず、再びS12の処理に移行し、遠隔操作待ちのループとなる。遠隔操作を検知した場合(S12、Y)は、距離センサ105の情報から、遠隔操作距離(表示画面と手などの物体までの垂直距離)を取得し、RAM201に保持する。遠隔操作距離の取得が完了すると、オブジェクト選択処理が開始される(S14)。   When the initial screen display process (S10) is completed, the distance sensor 105 detects a remote operation (S12). When the remote operation is not detected (S12, N), nothing is performed and the process proceeds to S12 again to enter a remote operation waiting loop. When a remote operation is detected (S12, Y), the remote operation distance (the vertical distance from the display screen to an object such as a hand) is acquired from the information of the distance sensor 105 and stored in the RAM 201. When the acquisition of the remote operation distance is completed, the object selection process is started (S14).

図7(A)は、第1の実施形態のオブジェクト選択処理(S14)の処理フロー図である。オブジェクト選択処理が開始されると、選択部304は、RAM201からオブジェクトの表示レイヤー順を読み出す。そして、表示レイヤー順に基づいて、オブジェクトと距離の対応付けを行う(S30)。対応つけは、表示レイヤー順に基づいて、オブジェクトと距離(操作可能な距離)と関係を示すテーブルを作成する。テーブルの例としては、図12(A)で示すようなテーブルを保持する。   FIG. 7A is a process flow diagram of the object selection process (S14) of the first embodiment. When the object selection process is started, the selection unit 304 reads the display layer order of the objects from the RAM 201. Then, the distance between the object and the distance is associated based on the display layer order (S30). For the association, a table showing the relationship between the object and the distance (operational distance) is created based on the order of the display layers. As an example of the table, a table as shown in FIG.

さらに選択部304は、RAM201から遠隔操作距離を読出し、対応付けの結果(テーブル)に基づいて、オブジェクトを操作対象として選択する。また表示制御部303は、選択したオブジェクトを強調表示する表示画面を作成し(S31)、画面に出力する(S32)ことで、ユーザにフィードバックを行う。選択したオブジェクトをフィードバック表示した画面の一例を図4の404a(Object3を選択)、404b(Object2を選択)、404c(Object1を選択)に示す。以上の処理でオブジェクト選択処理(S14)は完了し、呼び出し元の処理にその結果がリターンされる。   Further, the selection unit 304 reads the remote operation distance from the RAM 201, and selects an object as an operation target based on the association result (table). Further, the display control unit 303 creates a display screen that highlights the selected object (S31), and outputs it to the screen (S32), thereby providing feedback to the user. Examples of a screen that displays the selected object as feedback are shown in 404a (select Object 3), 404b (select Object 2), and 404c (select Object 1) in FIG. With the above processing, the object selection processing (S14) is completed, and the result is returned to the calling source processing.

オブジェクト選択処理(S14)が終了すると、データ表示を終了するかどうかの判定が行われる(S15)。データ表示を終了しない場合(S15、N)は、再びS12に処理が移行する。データ表示を終了する場合(S15、Y)は、情報処理装置100は、データ表示処理を終了する。   When the object selection process (S14) ends, it is determined whether or not to end the data display (S15). If the data display is not finished (S15, N), the process proceeds to S12 again. When the data display is to be ended (S15, Y), the information processing apparatus 100 ends the data display process.

以上、本実施形態で述べたように、表示レイヤー順に基づいてオブジェクトと距離(操作可能な距離)を対応付けることで、簡単なジェスチャ操作で任意のオブジェクトを選択できる。また、オブジェクトが重なって表示されていて選択しにくい場合でも、簡単に選択し、操作することが可能となる。   As described above, as described in the present embodiment, an arbitrary object can be selected by a simple gesture operation by associating an object with a distance (an operable distance) based on the order of display layers. Further, even when objects are displayed so as to overlap each other, it is possible to easily select and operate the objects.

本実施形態では、表示レイヤー順が上位のオブジェクトを長い距離に対応付けすることによって、より直感的に(ユーザの操作感にマッチするように)オブジェクトを選択することができる。   In the present embodiment, an object can be selected more intuitively (to match the user's feeling of operation) by associating an object whose display layer order is higher with a long distance.

尚、本実施形態では、オブジェクトの順序を表示画面上でオブジェクトが属している表示レイヤーに基づいて決定したが、例えば、オブジェクトが作成された日時の情報を利用して、最も作成日時が新しい順にオブジェクトの順序を決定してもよい。また関連するメタ情報をもつオブジェクトをグループ化し、各グループ内でソートすることで順序を決定するなど、オブジェクトの順序は、アプリケーションの用途によって決定できる。   In the present embodiment, the order of the objects is determined based on the display layer to which the objects belong on the display screen. For example, using the information on the date and time when the object was created, The order of the objects may be determined. In addition, the order of objects can be determined according to the use of the application. For example, the objects having related meta information are grouped and the order is determined by sorting within each group.

[第2の実施形態]
次に、本発明の第2の実施形態について図面を参照して詳細に説明する。ここで、システムの概要図、ハードウェア構成図、初期画面表示処理フロー図は、図1、図2、図6を用いて説明した第1の実施形態と同様である。尚、第2の実施形態においても、特に断らない限り、他図を用いて説明されたものには同一の符号を付し、その説明を省略する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described in detail with reference to the drawings. Here, a schematic diagram of the system, a hardware configuration diagram, and an initial screen display processing flowchart are the same as those in the first embodiment described with reference to FIGS. 1, 2, and 6. Also in the second embodiment, unless otherwise specified, the same reference numerals are given to those described with reference to other drawings, and the description thereof is omitted.

第1の実施形態との差異は、ジェスチャ操作を行う物体とオブジェクトの位置情報を取得する位置情報取得部305を機能ブロックに追加したことである。   The difference from the first embodiment is that a position information acquisition unit 305 that acquires an object performing gesture operation and position information of the object is added to the functional block.

図3(B)に、第2の実施形態における機能ブロック図を示す。位置情報取得部305以外は図3(A)を用いて説明した第1の実施形態と同様である。   FIG. 3B shows a functional block diagram according to the second embodiment. Other than the position information acquisition unit 305 is the same as that of the first embodiment described with reference to FIG.

位置情報取得部305は、表示制御部303から取得できるオブジェクトの表示位置情報と距離センサ105から取得できる物体の位置情報から、ジェスチャ操作を行う物体と表示オブジェクトとの位置を取得する。本実施形態2では、位置情報として、遠隔操作を行う物体の遠隔操作方向と、その方向に表示されているオブジェクトと物体との距離を取得する。また、取得した物体の遠隔操作方向に位置するオブジェクトのみを選択対象にし、保持部301で、選択対象のオブジェクトの順序を決定し、保持する。   The position information acquisition unit 305 acquires the positions of the object and the display object that perform the gesture operation from the display position information of the object that can be acquired from the display control unit 303 and the position information of the object that can be acquired from the distance sensor 105. In the second embodiment, as the position information, the remote operation direction of the object to be remotely operated and the distance between the object and the object displayed in the direction are acquired. Further, only the objects located in the remote operation direction of the acquired object are selected, and the holding unit 301 determines and holds the order of the objects to be selected.

図5(B)は、第2の実施形態における情報処理装置100の処理の流れを示すフローチャートである。物体とオブジェクトの位置情報を取得する処理S16とオブジェクト選択処理S17以外は、図5(A)を用いて説明した第1の実施形態と同様である。S16では、遠隔操作方向とその方向にあるオブジェクトまでの距離を取得し、その情報をRAM201に保持する。   FIG. 5B is a flowchart illustrating a processing flow of the information processing apparatus 100 according to the second embodiment. The processing is the same as that of the first embodiment described with reference to FIG. 5A except for the processing S16 for acquiring the position information of the object and the object and the object selection processing S17. In S16, the remote operation direction and the distance to the object in that direction are acquired, and the information is stored in the RAM 201.

本実施形態における物体とオブジェクトの位置情報の取得方法を図13に示す。ここでは物体の一例である手403を用いて説明する。まず遠隔操作距離xは図9を用いて説明した第1の実施形態と同様である。本実施形態では遠隔操作距離xに加え、手403の重心位置とオブジェクト103aの重心位置までの水平距離yも算出する。水平距離yを算出するには、まず前提条件としてプロジェクタ104と距離センサ105が正確にキャリブレーションされている必要がある。正しくキャリブレーションされている場合、距離センサの情報から表示画面上における手の重心位置p1を求める。またオブジェクト103aの表示情報からオブジェクト103aの重心位置p2を求める。これらの情報から手とオブジェクトの水平距離は y=|p1−p2| で算出できる。   FIG. 13 shows a method for acquiring object and object position information in the present embodiment. Here, description will be made using a hand 403 which is an example of an object. First, the remote operation distance x is the same as that of the first embodiment described with reference to FIG. In this embodiment, in addition to the remote operation distance x, the center distance of the hand 403 and the horizontal distance y to the center position of the object 103a are also calculated. In order to calculate the horizontal distance y, the projector 104 and the distance sensor 105 must be accurately calibrated as a precondition. When the calibration is correctly performed, the center of gravity position p1 of the hand on the display screen is obtained from the information of the distance sensor. Further, the center of gravity position p2 of the object 103a is obtained from the display information of the object 103a. From this information, the horizontal distance between the hand and the object can be calculated by y = | p1-p2 |.

図7(B)に、第2の実施形態におけるオブジェクト選択処理(S17)の処理フローを示す。   FIG. 7B shows a process flow of the object selection process (S17) in the second embodiment.

オブジェクト選択処理が開始されると、選択部304は、S16で取得した位置情報を読み出す。そして遠隔操作方向にあるオブジェクトのみが選択対象となるように、オブジェクトをフィルタリングする(S33)。次に、遠方にあるオブジェクトを長い距離に対応つける(S34)。   When the object selection process is started, the selection unit 304 reads the position information acquired in S16. Then, the object is filtered so that only the object in the remote operation direction is selected (S33). Next, a distant object is associated with a long distance (S34).

本実施形態では、遠方にあるオブジェクト(水平距離yが大きいオブジェクト)を長い距離に対応付け、さらに、オブジェクトが重なっている場合は、第1の実施形態と同様に、表示レイヤーが上位に位置するものを長い距離に対応付ける。具体例を図10に示す。図10のオブジェクトBとオブジェクトCはほぼ等距離にオブジェクトが重ねて表示されているとする。手とオブジェクトの位置情報に加え、オブジェクトの重なり順も考慮してオブジェクトの順序を決定する。本実施形態の場合は、遠方にある、かつ重なり順が上位のオブジェクトに長い距離を対応づけるため、図10の例では、オブジェクト選択順は距離が長い順から、E、D、B、C、Aとなる。テーブルの例としては、図12(B)で示す。   In the present embodiment, a distant object (an object with a large horizontal distance y) is associated with a long distance, and if the objects overlap, the display layer is positioned at the upper level, as in the first embodiment. Match things to long distances. A specific example is shown in FIG. Assume that the object B and the object C in FIG. In addition to the position information of the hand and the object, the order of the objects is determined in consideration of the overlapping order of the objects. In the case of the present embodiment, in order to associate a long distance with an object that is far away and has a higher overlapping order, in the example of FIG. 10, the object selection order is E, D, B, C, A. An example of the table is shown in FIG.

さらに選択部304は、対応付けの結果(テーブル)に基づいて、1つのオブジェクトを操作対象として選択する。また表示制御部303は、選択したオブジェクトを強調表示する表示画面を作成し(S31)、画面に出力する(S32)。   Furthermore, the selection unit 304 selects one object as an operation target based on the association result (table). Further, the display control unit 303 creates a display screen that highlights the selected object (S31), and outputs it to the screen (S32).

以上の処理でオブジェクト選択処理(S17)は完了し、呼び出し元の処理にその結果がリターンされる。オブジェクト選択処理(S17)が終了後の処理は、図5(A)を用いて説明した第1の実施形態と同様である。   The object selection process (S17) is completed by the above process, and the result is returned to the caller process. The processing after the end of the object selection processing (S17) is the same as that in the first embodiment described with reference to FIG.

次に、手の届く範囲のオブジェクトは、タッチ操作で選択し、手の届かない範囲のオブジェクトをジェスチャ操作で選択する例を示す。   Next, an example in which an object within a reachable range is selected by a touch operation, and an object within a reachable range is selected by a gesture operation.

図8は、大量のオブジェクトが表示されている場合のオブジェクト選択操作の例を示す。この例は、本実施形態の情報処理装置100を利用して、ブレインストーミング等のアイディア出しを行う場合を考慮したものである。この場合、オブジェクトにはアイディアが記載されている。尚、この例では、複数のオブジェクトは重ならずに表示されている場合である。   FIG. 8 shows an example of an object selection operation when a large number of objects are displayed. This example considers the case where ideas such as brainstorming are performed using the information processing apparatus 100 of the present embodiment. In this case, the idea is described in the object. In this example, a plurality of objects are displayed without overlapping.

表示するオブジェクトを縦横10cmと仮定すると、約100インチ(200cm×150cm)の表示画面500には少なくとも300枚のオブジェクトが表示可能である。そのうち、手の届く範囲502(60cm以内と想定)のオブジェクトは、タッチ操作で選択するものとして、遠隔操作対象オブジェクトから除外する。また、図8に示すように角度の分解能を10度とすると、位置情報取得部305では、18段階で方向を取得できる。さらに表示画面に対して垂直方向にジェスチャ操作する範囲を60cm、分解能を5cmとすると、選択部304は、12段階で距離と操作対象となるオブジェクトを対応付けることができる。   Assuming that the objects to be displayed are 10 cm in length and width, at least 300 objects can be displayed on the display screen 500 of about 100 inches (200 cm × 150 cm). Of these, objects within the reachable range 502 (assumed to be within 60 cm) are excluded from the remote operation target objects as those selected by the touch operation. As shown in FIG. 8, when the angle resolution is 10 degrees, the position information acquisition unit 305 can acquire directions in 18 steps. Further, if the range of gesture operation in the vertical direction with respect to the display screen is 60 cm and the resolution is 5 cm, the selection unit 304 can associate the distance and the object to be operated in 12 steps.

前記仮定の場合、図8の領域503の方向が最もオブジェクトを多く表示可能であり、その数は11個である。ここで、前述したように12段階でオブジェクトと距離を対応付けることが可能であるので、手の上下動作という簡単なジェスチャ操作で、手の届かない領域に表示されている11個のオブジェクトを選択可能となる。   In the case of the above assumption, the direction of the area 503 in FIG. 8 can display the most objects, and the number thereof is eleven. Here, as described above, since it is possible to associate an object with a distance in 12 steps, it is possible to select 11 objects displayed in an unreachable area by a simple gesture operation of up and down movement of the hand. It becomes.

以上、本実施形態で述べたように、物体とオブジェクトの位置情報を取得し、任意の方向にあるオブジェクトまでの距離に基づいて、オブジェクトと距離を対応付けることで、簡単にオブジェクトを選択することができる。つまり、大量にオブジェクトが表示されている場合においても簡単なジェスチャ操作でオブジェクトを選択できる。   As described above, as described in the present embodiment, it is possible to easily select an object by acquiring position information of the object and associating the distance with the object based on the distance to the object in an arbitrary direction. it can. That is, even when a large number of objects are displayed, the objects can be selected with a simple gesture operation.

[第3の実施形態]
次に、本発明の第3の実施形態について図面を参照して詳細に説明する。ここで、ハードウェア構成図、処理フロー図は、図2、図5(A)、図6、図7(A)を用いて説明した第1の実施形態と同様である。尚、第3の実施形態においても、特に断らない限り、他図を用いて説明されたものには同一の符号を付し、その説明を省略する。
[Third Embodiment]
Next, a third embodiment of the present invention will be described in detail with reference to the drawings. Here, the hardware configuration diagram and the processing flow diagram are the same as those in the first embodiment described with reference to FIGS. 2, 5A, 6, and 7A. Also in the third embodiment, unless otherwise specified, the same reference numerals are given to those described with reference to other drawings, and the description thereof is omitted.

第1の実施形態との差異は、情報処理装置が一体型のモバイルデバイスになったことである。本実施形態3における情報処理装置106の概観図を図11に示す。   The difference from the first embodiment is that the information processing apparatus is an integrated mobile device. FIG. 11 shows an overview of the information processing apparatus 106 according to the third embodiment.

本実施形態3の情報処理装置106は、小型ディスプレイ107と遠隔操作距離を算出可能な1つまたは複数個の近接センサ108から構成される。109a、109b、109cは小型ディスプレイ107に表示されているオブジェクトである。   The information processing apparatus 106 according to the third embodiment includes a small display 107 and one or a plurality of proximity sensors 108 capable of calculating a remote operation distance. Reference numerals 109a, 109b, and 109c are objects displayed on the small display 107.

第1の実施形態で示した場合と同様に、第3の実施形態で示した小型の情報処理装置106においても、簡単なジェスチャ操作によって、任意のオブジェクトを選択できる。これを利用すれば、小型ディスプレイ上に重なって表示されているため選択しずらいオブジェクトを簡単に選択する操作をモバイルデバイスでも実現できる。   Similarly to the case shown in the first embodiment, the small information processing apparatus 106 shown in the third embodiment can select an arbitrary object by a simple gesture operation. By using this, an operation for easily selecting an object that is difficult to select because it is displayed on a small display can be realized even on a mobile device.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (7)

表示部に表示されている複数のオブジェクトから、オブジェクトを選択する情報処理装置であって、
前記複数のオブジェクトの順序を保持する保持手段と、
物体から前記表示部の表示画面までの遠隔操作距離を取得する距離取得手段と、
前記複数のオブジェクトの順序と前記取得した遠隔操作距離に基づいて、オブジェクトを選択するオブジェクト選択手段を有することを特徴とする情報処理装置。
An information processing apparatus that selects an object from a plurality of objects displayed on a display unit,
Holding means for holding the order of the plurality of objects;
Distance acquisition means for acquiring a remote operation distance from an object to the display screen of the display unit;
An information processing apparatus comprising object selection means for selecting an object based on the order of the plurality of objects and the acquired remote operation distance.
前記オブジェクト選択手段は、前記複数のオブジェクトの順序と操作可能な距離の対応つけを行い、前記対応つけと前記取得した遠隔操作距離に基づいて、オブジェクトを選択することを特徴とする請求項1に記載の情報処理装置。   The object selection unit associates the order of the plurality of objects with an operable distance, and selects an object based on the association and the acquired remote operation distance. The information processing apparatus described. 前記オブジェクトの順序は、表示画面上でオブジェクトが属する表示レイヤーの順序であり、
前記オブジェクト選択手段は、表示レイヤーの順序が上位であるオブジェクトを長い距離に対応付け、前記対応つけと前記取得した遠隔操作距離に基づいて、オブジェクトを選択することを特徴とする請求項2に記載の情報処理装置。
The order of the objects is the order of the display layers to which the objects belong on the display screen,
3. The object selecting unit according to claim 2, wherein the object selecting unit associates an object whose display layer is higher in order with a long distance, and selects the object based on the association and the acquired remote operation distance. Information processing device.
さらに、物体の遠隔操作方向を取得する取得手段を有し、
前記オブジェクト選択手段は、前記遠隔操作方向にあるオブジェクトを選択対象とすることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
Furthermore, it has an acquisition means for acquiring the remote operation direction of the object,
The information processing apparatus according to claim 1, wherein the object selection unit selects an object in the remote operation direction as a selection target.
さらに、前記表示部に、前記オブジェクト選択手段が選択したオブジェクトを強調表示し、選択オブジェクトと距離との対応付けを示すインジケータを表示制御する表示制御手段を有することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。   5. The display unit according to claim 1, further comprising display control means for highlighting the object selected by the object selecting means and displaying and controlling an indicator indicating correspondence between the selected object and the distance. The information processing apparatus according to any one of the above. コンピュータに読み込ませ実行させることで、前記コンピュータを、請求項1乃至5のいずれか1項に記載の情報処理装置の各手段として機能させることを特徴とするプログラム。   A program that causes a computer to function as each unit of the information processing apparatus according to any one of claims 1 to 5 by being read and executed by a computer. 請求項6に記載のコンピュータプログラムを格納した、コンピュータ読み取り可能な記憶媒体。   A computer-readable storage medium storing the computer program according to claim 6.
JP2010144219A 2010-06-24 2010-06-24 Information processing device Active JP5627314B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010144219A JP5627314B2 (en) 2010-06-24 2010-06-24 Information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010144219A JP5627314B2 (en) 2010-06-24 2010-06-24 Information processing device

Publications (3)

Publication Number Publication Date
JP2012008808A true JP2012008808A (en) 2012-01-12
JP2012008808A5 JP2012008808A5 (en) 2013-08-08
JP5627314B2 JP5627314B2 (en) 2014-11-19

Family

ID=45539268

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010144219A Active JP5627314B2 (en) 2010-06-24 2010-06-24 Information processing device

Country Status (1)

Country Link
JP (1) JP5627314B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012032945A (en) * 2010-07-29 2012-02-16 Canon Inc Information processor and control method of the same
KR20140003144A (en) * 2012-06-29 2014-01-09 엘지전자 주식회사 Terminal and control method thereof
WO2015129245A1 (en) * 2014-02-28 2015-09-03 日本電気株式会社 Information processing device, information display method, and recording medium
WO2018235371A1 (en) * 2017-06-20 2018-12-27 ソニー株式会社 Information processing device, information processing method, and recording medium
WO2019244437A1 (en) * 2018-06-18 2019-12-26 ソニー株式会社 Information processing device, information processing method, and program
JP2020197942A (en) * 2019-06-03 2020-12-10 株式会社デンソー Input device
JP2021014262A (en) * 2020-10-26 2021-02-12 パイオニア株式会社 Virtual image display apparatus, control method, program, and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004005402A (en) * 2002-01-21 2004-01-08 Mitsubishi Electric Research Laboratories Inc Method and system for visualizing a plurality of images in circular graphical user interface
JP2006228215A (en) * 2005-02-14 2006-08-31 Mitsubishi Electric Research Laboratories Inc Method for manipulating touch-sensitive graphical user interface and touch-sensitive graphical user interface
JP2008210348A (en) * 2007-02-28 2008-09-11 Univ Of Tokyo Image display device
JP2009207177A (en) * 2009-06-08 2009-09-10 Sony Corp Apparatus and method for controlling image display
WO2010028176A1 (en) * 2008-09-03 2010-03-11 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004005402A (en) * 2002-01-21 2004-01-08 Mitsubishi Electric Research Laboratories Inc Method and system for visualizing a plurality of images in circular graphical user interface
JP2006228215A (en) * 2005-02-14 2006-08-31 Mitsubishi Electric Research Laboratories Inc Method for manipulating touch-sensitive graphical user interface and touch-sensitive graphical user interface
JP2008210348A (en) * 2007-02-28 2008-09-11 Univ Of Tokyo Image display device
WO2010028176A1 (en) * 2008-09-03 2010-03-11 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
JP2012502364A (en) * 2008-09-03 2012-01-26 オブロング・インダストリーズ・インコーポレーテッド A control system for navigating the main dimensions of the data space
JP2009207177A (en) * 2009-06-08 2009-09-10 Sony Corp Apparatus and method for controlling image display

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012032945A (en) * 2010-07-29 2012-02-16 Canon Inc Information processor and control method of the same
KR20140003144A (en) * 2012-06-29 2014-01-09 엘지전자 주식회사 Terminal and control method thereof
KR101985500B1 (en) * 2012-06-29 2019-06-03 엘지전자 주식회사 Terminal and control method thereof
WO2015129245A1 (en) * 2014-02-28 2015-09-03 日本電気株式会社 Information processing device, information display method, and recording medium
JPWO2015129245A1 (en) * 2014-02-28 2017-03-30 日本電気株式会社 Information processing apparatus, information display method, and program
WO2018235371A1 (en) * 2017-06-20 2018-12-27 ソニー株式会社 Information processing device, information processing method, and recording medium
US10921934B2 (en) 2017-06-20 2021-02-16 Sony Corporation Information processing apparatus, information processing method, and recording medium
WO2019244437A1 (en) * 2018-06-18 2019-12-26 ソニー株式会社 Information processing device, information processing method, and program
JP2020197942A (en) * 2019-06-03 2020-12-10 株式会社デンソー Input device
JP2021014262A (en) * 2020-10-26 2021-02-12 パイオニア株式会社 Virtual image display apparatus, control method, program, and storage medium
JP7100100B2 (en) 2020-10-26 2022-07-12 パイオニア株式会社 Virtual image display device, control method, program, and storage medium

Also Published As

Publication number Publication date
JP5627314B2 (en) 2014-11-19

Similar Documents

Publication Publication Date Title
US8830184B2 (en) Image displaying device, image displaying method, and program for displaying images
JP5627314B2 (en) Information processing device
KR102035305B1 (en) Method for providing haptic effect in portable terminal, machine-readable storage medium and portable terminal
US9582903B2 (en) Display terminal device connectable to external display device and method therefor
US10599317B2 (en) Information processing apparatus
JP6062416B2 (en) Information input device and information display method
US20120050192A1 (en) Information processing apparatus, information processing apparatus control method and storage medium
EP2717149A2 (en) Display control method for displaying different pointers according to attributes of a hovering input position
EP2728460A1 (en) Method of displaying data in display device using mobile communication terminal, the display device, and the mobile communication terminal
JP2015531530A (en) In-document navigation based on thumbnails and document maps
JPH1069346A (en) Coordinate input device and its control method
CA2862431A1 (en) Method of displaying input during a collaboration session and interactive board employing same
KR102072509B1 (en) Group recording method, machine-readable storage medium and electronic device
KR101861377B1 (en) Method for controlling screen based on motion of mobile terminal and the mobile terminal therefor
JP5875262B2 (en) Display control device
US20130162568A1 (en) Setting vibration portions in pieces of electronic data that are displayable on a display device
TW201318423A (en) Real-time image manipulation method and electronic device
JP2013033462A (en) Operation method and control system for multi-touch control
CN111045627B (en) Method and apparatus for displaying objects
JP2006092269A (en) Electronic board system
JP5645530B2 (en) Information processing apparatus and control method thereof
JP2015102946A (en) Information processing apparatus, control method of information processing apparatus, and program
JP2015108901A (en) Portable touch panel terminal, display control method therefor, and computer program
KR101136327B1 (en) A touch and cursor control method for portable terminal and portable terminal using the same
JP2009216729A (en) Display device and display system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130624

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140902

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140930

R151 Written notification of patent or utility model registration

Ref document number: 5627314

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151