JP2012155678A - Display system, display processing apparatus, display method and display program - Google Patents

Display system, display processing apparatus, display method and display program Download PDF

Info

Publication number
JP2012155678A
JP2012155678A JP2011016807A JP2011016807A JP2012155678A JP 2012155678 A JP2012155678 A JP 2012155678A JP 2011016807 A JP2011016807 A JP 2011016807A JP 2011016807 A JP2011016807 A JP 2011016807A JP 2012155678 A JP2012155678 A JP 2012155678A
Authority
JP
Japan
Prior art keywords
virtual
display
image
target object
virtual object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011016807A
Other languages
Japanese (ja)
Other versions
JP5565331B2 (en
Inventor
Hiroki Yoshida
宏樹 吉田
Chiho Murai
千帆 村井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2011016807A priority Critical patent/JP5565331B2/en
Publication of JP2012155678A publication Critical patent/JP2012155678A/en
Application granted granted Critical
Publication of JP5565331B2 publication Critical patent/JP5565331B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a display system in which an object can be displayed easily to point in virtual reality where image information representing a virtual world is superimposed on a photographic image and displayed while being linked on real coordinates.SOLUTION: In a display system, an image of a virtual object, a display position set on a three-dimensional coordinate system set to a photographic space and processing to be executed selectively are specified for each virtual object. The three-dimensional coordinate system is set to an image photographed by a camera, and a display image for displaying the image of the virtual object is generated at the specified position. When a position designation from a user is received in the display image, that position is detected as a position in the three-dimensional coordinate system and if a distance between that position and the display position of the virtual object is smaller than a threshold value, a size of any other virtual objects than that virtual object is reduced.

Description

この発明は表示システム、表示処理装置、表示方法、および表示プログラムに関し、特に、撮影画像に選択可能なオブジェクトを表示するための表示システム、表示処理装置、表示方法、および表示プログラムに関する。   The present invention relates to a display system, a display processing device, a display method, and a display program, and more particularly to a display system, a display processing device, a display method, and a display program for displaying selectable objects on a captured image.

撮影画像に仮想世界を表わす画像情報を重ねて表示し、表示上、仮想現実を表示させる技術が提案されている。仮想現実の表示では、実世界を表わす撮影画像と仮想世界を表わす画像情報とがレイヤ構成になっており、実空間と仮想空間とが、実座標でリンクしている。   A technique has been proposed in which image information representing a virtual world is superimposed on a captured image and displayed to display virtual reality. In the virtual reality display, a photographed image representing the real world and image information representing the virtual world have a layer structure, and the real space and the virtual space are linked by real coordinates.

仮想現実を用いたシステムではこのような表示構成であることから、仮想空間上にあるオブジェクトの位置を特定する際に3次元空間の奥行き感が把握し難く、オブジェクトの位置が特定し難いという問題があった。   Since a system using virtual reality has such a display configuration, it is difficult to grasp the sense of depth in the three-dimensional space when specifying the position of the object in the virtual space, and it is difficult to specify the position of the object. was there.

この問題に対して、ユーザの指示領域とオブジェクトとの距離に応じて、指示領域またはオブジェクトの少なくとも一方の色を変化させるようにしている例がある。具体例として、特開平5−342322号公報(以下、特許文献1)は、3次元空間で、指示領域座標とオブジェクトに関連付けられた座標との距離に基づいて、段階的にポインタまたはオブジェクトの色を変更する技術を開示している。   In order to solve this problem, there is an example in which the color of at least one of the instruction area or the object is changed according to the distance between the instruction area of the user and the object. As a specific example, Japanese Patent Application Laid-Open No. 5-342322 (hereinafter referred to as Patent Document 1) discloses a color of a pointer or an object in a stepwise manner in a three-dimensional space based on the distance between the designated area coordinates and the coordinates associated with the object. The technology which changes is disclosed.

他の例として、特開2002−109568号公報(以下、特許文献2)は、仮想空間上にオブジェクトが複数存在する場合に、目的とするオブジェクトを把握しやすくするため目印となるオブジェクト以外のオブジェクトを不可視にする技術を開示している。また、特開2003−337959号公報(以下、特許文献3)は、オブジェクトの表示形態を、視点からオブジェクまでの距離に基づいて変化させる技術を開示している。   As another example, Japanese Patent Application Laid-Open No. 2002-109568 (hereinafter referred to as Patent Document 2) discloses an object other than an object serving as a mark in order to make it easier to grasp a target object when there are a plurality of objects in a virtual space. Is disclosed. Japanese Patent Laying-Open No. 2003-337959 (hereinafter, Patent Document 3) discloses a technique for changing the display form of an object based on the distance from the viewpoint to the object.

特開平5−342322号公報JP-A-5-342322 特開2002−109568号公報JP 2002-109568 A 特開2003−337959号公報JP 2003-337959 A

しかしながら、これら特許文献に開示されているような技術では、3次元空間の奥行き感が把握し難く、3次元表示を視認しながらの選択がし難いという問題があった。特に、
複数のオブジェクトが近接して多数存在している場合にはそれぞれの奥行き感が把握し難いと、その中から特定のオブジェクトを選択して指定することが難しいという問題があった。
However, the techniques disclosed in these patent documents have a problem that it is difficult to grasp the sense of depth in the three-dimensional space and it is difficult to make a selection while visually recognizing the three-dimensional display. In particular,
When there are a large number of objects close to each other, there is a problem that it is difficult to select and specify a specific object from among them if it is difficult to grasp the sense of depth.

本発明はこのような問題に鑑みてなされたものであって、撮影画像に仮想世界を表わす画像情報を重ね、実座標でリンクさせて表示した仮想現実において、ポイントしやすくオブジェクトを表示することができる表示システム、表示処理装置、表示方法、および表示プログラムを提供することを目的としている。   The present invention has been made in view of such problems, and it is possible to display an object that is easy to point in virtual reality in which image information representing a virtual world is superimposed on a captured image and displayed by linking with real coordinates. An object of the present invention is to provide a display system, a display processing device, a display method, and a display program.

上記目的を達成するために、本発明のある局面に従うと、表示システムは仮想オブジェクトの画像を表示するための表示システムであって、カメラと、ディスプレイと、表示処理装置とを備える。表示処理装置は、仮想オブジェクトに関する情報として、当該仮想オブジェクトを3次元で表示させるための画像情報と、撮影された空間に対して設定された3次元の座標系で表わされた当該仮想オブジェクトの表示位置と、当該仮想オブジェクトが選択されることによって実行される動作とを規定する情報を記憶装置から取得するための取得手段と、カメラによる撮影画像に対して3次元の座標系を設定し、仮想オブジェクトに対して規定された表示位置に仮想オブジェクトの画像を表示させるための表示画像を生成し、ディスプレイで表示させる処理を実行するための処理手段と、ユーザによって指定された3次元の座標系における位置を検出するための検出手段とを含む。処理手段は、撮影画像における仮想オブジェクトについて規定された表示位置と指定された位置との関係に基づいて仮想オブジェクトのうちの1つの仮想オブジェクトを仮想対象オブジェクトと特定し、仮想オブジェクトのうちの仮想対象オブジェクト以外の仮想オブジェクトを仮想対象外オブジェクトとして、仮想対象外オブジェクトの画像を変化させる処理を実行する。   In order to achieve the above object, according to an aspect of the present invention, a display system is a display system for displaying an image of a virtual object, and includes a camera, a display, and a display processing device. The display processing apparatus includes, as information about the virtual object, image information for displaying the virtual object in three dimensions, and the virtual object represented in a three-dimensional coordinate system set for the captured space. An acquisition means for acquiring from the storage device information defining the display position and the action executed by selecting the virtual object, and a three-dimensional coordinate system for the captured image by the camera, A processing unit for generating a display image for displaying an image of the virtual object at a display position defined for the virtual object and displaying the image on the display, and a three-dimensional coordinate system specified by the user And detecting means for detecting the position at. The processing means identifies one virtual object of the virtual objects as a virtual target object based on the relationship between the display position specified for the virtual object in the captured image and the specified position, and the virtual target of the virtual object A process of changing an image of a virtual non-target object is executed using a virtual object other than the object as a virtual non-target object.

好ましくは、上記変化させる処理は、仮想対象外オブジェクトの画像を縮小する処理、仮想対象外オブジェクトの画像の形状を変化させる処理、仮想対象外オブジェクトの画像の色彩を変化させる処理、仮想対象外オブジェクトの画像の透明度を変化させる処理、および仮想対象外オブジェクトの画像の表示位置を変化させる処理のうちの少なくとも1つである。   Preferably, the changing process includes a process of reducing the image of the virtual non-target object, a process of changing the shape of the image of the virtual non-target object, a process of changing the color of the image of the virtual non-target object, and the virtual non-target object. At least one of the process of changing the transparency of the image and the process of changing the display position of the image of the virtual non-target object.

好ましくは、処理手段は、撮影画像における仮想オブジェクトについて規定された表示位置と指定された位置との間の距離が、予め規定されている第1の基準距離よりも小さい仮想オブジェクトを仮想対象オブジェクトと特定する。   Preferably, the processing means sets, as a virtual target object, a virtual object in which a distance between a display position specified for a virtual object in a captured image and a specified position is smaller than a first reference distance specified in advance. Identify.

より好ましくは、処理手段は、仮想対象外オブジェクトの画像を、指定された位置と仮想対象オブジェクトとの間の距離に応じて縮小する。   More preferably, the processing unit reduces the image of the virtual non-target object according to the distance between the designated position and the virtual target object.

好ましくは、処理手段は、ユーザによって指定される位置の変化量に基づいて指定される位置が向かう方向に表示位置が該当している仮想オブジェクトを仮想対象オブジェクトと特定する。   Preferably, the processing means identifies a virtual object whose display position corresponds to a direction in which the position specified based on a change amount of the position specified by the user is a virtual target object.

より好ましくは、処理手段は、仮想対象外オブジェクトの表示位置を、指定された位置と仮想対象オブジェクトとの間の距離に応じて、仮想対象オブジェクトから遠くなる方向に変化させる。   More preferably, the processing unit changes the display position of the virtual non-target object in a direction away from the virtual target object according to the distance between the designated position and the virtual target object.

好ましくは、処理手段は、カメラの位置と仮想オブジェクトとの位置関係に基づいて、仮想対象オブジェクトに重なって表示される仮想対象外オブジェクトの画像の変化を、重なって表示されない仮想対象外オブジェクトの画像の変化よりも大きく変化させる。   Preferably, the processing means changes the image of the virtual non-target object displayed overlapping the virtual target object based on the positional relationship between the camera position and the virtual object, and the virtual non-target object image not displayed overlapping the virtual target object. Change it more than the change.

より好ましくは、処理手段は、カメラの位置の変化が検出されると、変化前のカメラの位置に応じて仮想対象オブジェクトに重なって表示されると特定された仮想対象外オブジェクトの画像の変化を、カメラの位置の移動後も維持する。   More preferably, when a change in the position of the camera is detected, the processing unit displays a change in the image of the virtual non-target object identified as being displayed on the virtual target object in accordance with the position of the camera before the change. Keep the camera position after moving.

好ましくは、処理手段は、撮影画像における仮想オブジェクトについて規定された表示位置と指定された位置との間の距離が、第1の基準距離よりも大きい第2の基準距離よりも小さい仮想オブジェクトであって、仮想対象オブジェクトと特定された仮想オブジェクト以外の仮想オブジェクトを仮想対象外オブジェクトと特定する。   Preferably, the processing means is a virtual object in which a distance between the display position specified for the virtual object in the photographed image and the designated position is smaller than the second reference distance that is larger than the first reference distance. Thus, virtual objects other than the virtual object identified as the virtual target object are identified as non-virtual target objects.

好ましくは、ディスプレイは、表示面と逆側の面からの光を透過し、表示処理手段で生成された表示画像を、表示面に透過性を有して表示する。   Preferably, the display transmits light from a surface opposite to the display surface, and displays the display image generated by the display processing unit with transparency on the display surface.

本発明の他の局面に従うと、表示処理装置は仮想オブジェクトの画像をディスプレイに表示させるための表示処理装置であって、撮影画像の入力を受付けるための入力手段と、仮想オブジェクトに関する情報として、当該仮想オブジェクトを3次元で表示させるための画像情報と、撮影された空間に対して設定された3次元の座標系で表わされた当該仮想オブジェクトの表示位置と、当該仮想オブジェクトが選択されることによって実行される動作とを規定する情報を記憶装置から取得するための取得手段と、撮影画像に対して3次元の座標系を設定し、仮想オブジェクトに対して規定された表示位置に仮想オブジェクトの画像を表示させるための表示画像を生成し、ディスプレイで表示させる処理を実行するための処理手段と、ユーザによって指定された3次元の座標系における位置を検出するための検出手段とを含む。処理手段は、撮影画像における仮想オブジェクトについて規定された表示位置と指定された位置との関係に基づいて仮想オブジェクトのうちの1つの仮想オブジェクトを仮想対象オブジェクトと特定し、仮想オブジェクトのうちの仮想対象オブジェクト以外の仮想オブジェクトを仮想対象外オブジェクトとして、仮想対象外オブジェクトの画像を変化させる処理を実行する。   According to another aspect of the present invention, the display processing device is a display processing device for displaying an image of a virtual object on a display, and includes input means for accepting an input of a captured image, and information related to the virtual object. The image information for displaying the virtual object in three dimensions, the display position of the virtual object represented in the three-dimensional coordinate system set for the captured space, and the virtual object are selected. Acquisition means for acquiring information defining the action executed by the storage device, a three-dimensional coordinate system is set for the captured image, and the virtual object is set at the display position specified for the virtual object. Processing means for generating a display image for displaying the image and displaying the image on the display; And a detection means for detecting the position in the specified 3-dimensional coordinate system Te. The processing means identifies one virtual object of the virtual objects as a virtual target object based on the relationship between the display position specified for the virtual object in the captured image and the specified position, and the virtual target of the virtual object A process of changing an image of a virtual non-target object is executed using a virtual object other than the object as a virtual non-target object.

本発明のさらに他の局面に従うと、表示方法は仮想オブジェクトの画像をディスプレイに表示させる方法であって、カメラから撮影画像の入力を受付けるステップと、撮影画像に対して3次元の座標系を設定するステップと、ユーザによって指定された3次元の座標系における位置を検出するステップと、仮想オブジェクトに関する情報として、当該仮想オブジェクトを3次元で表示させるための画像情報と、撮影された空間に対して設定された3次元の座標系で表わされた当該仮想オブジェクトの表示位置と、当該仮想オブジェクトが選択されることによって実行される動作とを規定する情報を記憶装置から取得するステップと、撮影画像における仮想オブジェクトについて規定された表示位置と指定された位置との関係に基づいて仮想オブジェクトのうちの1つの仮想オブジェクトを仮想対象オブジェクトと特定し、仮想オブジェクトのうちの仮想対象オブジェクト以外の仮想オブジェクトを仮想対象外オブジェクトとして、仮想対象外オブジェクトの画像を変化させるステップとを備える。   According to still another aspect of the present invention, the display method is a method of displaying an image of a virtual object on a display, the step of receiving an input of a captured image from a camera, and a three-dimensional coordinate system is set for the captured image A step of detecting a position in a three-dimensional coordinate system designated by a user, image information for displaying the virtual object in three dimensions as information on the virtual object, and a captured space Acquiring from the storage device information defining the display position of the virtual object represented in the set three-dimensional coordinate system and the action executed when the virtual object is selected; Based on the relationship between the specified display position and the specified position for the virtual object in One virtual objects among the objects identified as virtual object as a virtual object outside the object virtual object other than the virtual object of a virtual object, and a step of changing the image of the virtual object outside the object.

本発明のさらに他の局面に従うと、表示プログラムは表示処理装置に仮想オブジェクトの画像をディスプレイに表示させる処理を実行させるためのプログラムであって、カメラから撮影画像の入力を受付けるステップと、撮影画像に対して3次元の座標系を設定するステップと、ユーザによって指定された3次元の座標系における位置を検出するステップと、仮想オブジェクトに関する情報として、当該仮想オブジェクトを3次元で表示させるための画像情報と、撮影された空間に対して設定された3次元の座標系で表わされた当該仮想オブジェクトの表示位置と、当該仮想オブジェクトが選択されることによって実行される動作とを規定する情報を記憶装置から取得するステップと、撮影画像における仮想オブジェクトについて規定された表示位置と指定された位置との関係に基づいて仮想オブジェクトのうちの1つの仮想オブジェクトを仮想対象オブジェクトと特定し、仮想オブジェクトのうちの仮想対象オブジェクト以外の仮想オブジェクトを仮想対象外オブジェクトとして、仮想対象外オブジェクトの画像を変化させるステップとを表示処理装置に実行させる。   According to still another aspect of the present invention, the display program is a program for causing a display processing device to execute processing for displaying an image of a virtual object on a display, the step of receiving an input of a captured image from a camera, and a captured image A step of setting a three-dimensional coordinate system for the image, a step of detecting a position in the three-dimensional coordinate system designated by the user, and an image for displaying the virtual object in three dimensions as information on the virtual object Information defining information, a display position of the virtual object represented in a three-dimensional coordinate system set for the imaged space, and an action to be executed when the virtual object is selected The step of obtaining from the storage device and the virtual object in the captured image Based on the relationship between the indicated position and the specified position, one virtual object of the virtual objects is identified as a virtual target object, and a virtual object other than the virtual target object of the virtual objects is defined as a virtual non-target object. And causing the display processing device to execute a step of changing the image of the non-target object.

この発明によると、撮影画像に仮想世界を表わす画像情報を重ね、実座標でリンクさせて表示された仮想現実において、表示される選択肢としてのオブジェクトを、より直感的に、より簡易に選択することが可能となる。   According to the present invention, it is possible to more intuitively and easily select an object as an option to be displayed in a virtual reality displayed by superimposing image information representing a virtual world on a captured image and linking with real coordinates. Is possible.

本実施の形態にかかる表示システムの構成の具体例を示す図である。It is a figure which shows the specific example of a structure of the display system concerning this Embodiment. 本実施の形態にかかる表示システムの構成の他の具体例を示す図である。It is a figure which shows the other specific example of a structure of the display system concerning this Embodiment. 表示システムに含まれるディスプレイの装置構成の具体例を示すブロック図である。It is a block diagram which shows the specific example of the apparatus structure of the display contained in a display system. ポインティングデバイスである場合の、表示システムに含まれるポインタの装置構成の具体例を示すブロック図である。It is a block diagram which shows the specific example of the apparatus structure of the pointer contained in a display system in the case of being a pointing device. 本実施の形態にかかる表示システムの用いられ方の一例を説明する図である。It is a figure explaining an example of how to use the display system concerning this embodiment. 本実施の形態にかかる表示システムの用いられ方の一例を説明する図である。It is a figure explaining an example of how to use the display system concerning this embodiment. 表示システムに含まれる処理装置の機能構成の具体例を示すブロック図である。It is a block diagram which shows the specific example of a function structure of the processing apparatus contained in a display system. 基本の表示動作の具体例を示すフローチャートである。It is a flowchart which shows the specific example of basic display operation. マーカとして記憶されている画像の具体例を示す図である。It is a figure which shows the specific example of the image memorize | stored as a marker. 撮影画像中のマーカの検出例と、その検出結果に基づく仮想オブジェクトの表示例とを示す図である。It is a figure which shows the example of a detection of the marker in a picked-up image, and the example of a display of the virtual object based on the detection result. 表示システムでの表示の一例を示す図である。It is a figure which shows an example of the display in a display system. 記憶される仮想オブジェクトの座標値の具体例を示す図である。It is a figure which shows the specific example of the coordinate value of the virtual object memorize | stored. 仮想オブジェクト−ポインタ間距離を計算する動作の具体例を示すフローチャートである。It is a flowchart which shows the specific example of the operation | movement which calculates the virtual object-pointer distance. ポインタ位置と仮想オブジェクトの位置との間の距離を用いた表示処理の第1の例を説明する図である。It is a figure explaining the 1st example of the display process using the distance between a pointer position and the position of a virtual object. 第1の例にかかる表示処理のための動作の具体例を示すフローチャートである。It is a flowchart which shows the specific example of the operation | movement for the display process concerning a 1st example. 表示処理の第1の例の、変形例を説明する図である。It is a figure explaining the modification of the 1st example of a display process. 表示処理の第1の例の、変形例を説明する図である。It is a figure explaining the modification of the 1st example of a display process. 表示処理の第1の例の、変形例を説明する図である。It is a figure explaining the modification of the 1st example of a display process. 表示処理の第1の例の、変形例を説明する図である。It is a figure explaining the modification of the 1st example of a display process. ポインタ位置と仮想オブジェクトの位置との間の距離を用いた表示処理の第2の例を説明する図である。It is a figure explaining the 2nd example of the display process using the distance between a pointer position and the position of a virtual object. 第2の例にかかる表示処理のための動作の具体例を示すフローチャートである。It is a flowchart which shows the specific example of the operation | movement for the display process concerning a 2nd example. 表示処理の第2の例の、変形例を説明する図である。It is a figure explaining the modification of the 2nd example of a display process. 表示処理の第2の例の、変形例を説明する図である。It is a figure explaining the modification of the 2nd example of a display process. 表示処理の第2の例の、変形例を説明する図である。It is a figure explaining the modification of the 2nd example of a display process.

以下に、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品および構成要素には同一の符号を付してある。それらの名称および機能も同じである。   Embodiments of the present invention will be described below with reference to the drawings. In the following description, the same parts and components are denoted by the same reference numerals. Their names and functions are also the same.

<システム構成>
図1は、本実施の形態にかかる表示システムの構成の具体例を示す図である。
<System configuration>
FIG. 1 is a diagram illustrating a specific example of the configuration of the display system according to the present embodiment.

図1を参照して、本実施の形態にかかる表示システムは、処理装置100と、ポインタ200と、カメラ300と、ウェアラブルディスプレイであるディスプレイ400と、サーバ500と、オブジェクト設定機器としての携帯端末600とを含む。   Referring to FIG. 1, a display system according to the present embodiment includes a processing device 100, a pointer 200, a camera 300, a display 400 that is a wearable display, a server 500, and a portable terminal 600 that is an object setting device. Including.

処理装置100は、カメラ300、ディスプレイ400、およびサーバ500とそれぞれ電気的に接続されている。この接続は、LAN(Local Area Network)などの特定のネットワークを介した接続であってもよいし、インターネットなどの公衆回線を介した接続であってもよい。また、無線、有線のいずれであってもよい。   The processing device 100 is electrically connected to the camera 300, the display 400, and the server 500, respectively. This connection may be a connection via a specific network such as a LAN (Local Area Network) or a connection via a public line such as the Internet. Moreover, either wireless or wired may be used.

処理装置100およびサーバ500は、一般的なパーソナルコンピュータ(PC)などで構成されてもよい。   The processing device 100 and the server 500 may be configured by a general personal computer (PC) or the like.

携帯端末600は、携帯電話機や携帯型のPCなどで構成されてもよいし、通常の、一般的なPCで構成されてもよい。   The portable terminal 600 may be configured with a mobile phone, a portable PC, or the like, or may be configured with a normal, general PC.

カメラ300は、処理装置100と電気的に接続可能であって、撮影画像を処理装置100に送信する機能を有するものであれば、どのようなものであってもよい。   The camera 300 may be any device as long as it can be electrically connected to the processing device 100 and has a function of transmitting a captured image to the processing device 100.

ディスプレイ400はカメラ300と一体となったウェアラブルディスプレイである。ディスプレイ400は透過性を有した表示部としてのディスプレイ401(図3参照)を備え、処理装置100と電気的に接続されて、処理装置100から送信された画像データを、表示部としてのディスプレイ401に対して透過性を有して表示する機能を有する。   The display 400 is a wearable display integrated with the camera 300. The display 400 includes a display 401 (see FIG. 3) as a display unit having transparency. The display 400 is electrically connected to the processing apparatus 100 and receives image data transmitted from the processing apparatus 100 as a display unit 401. And has a function of displaying with transparency.

ポインタ200は所定の形状または模様を有する。該形状または模様は処理装置100に予め登録されており、マーカとして用いられる。すなわち、処理装置100は、カメラ300によって撮影された画像中に存在するマーカとしてのポインタ200の位置を画像処理によって特定する。なお、図1の例では、ポインタ200はユーザの指先に装着される筒状のものであり、処理装置100には予め該筒状の形状またはその表面に施された模様が記憶されているものとする。しかしながら、ポインタ200はユーザの身体の一部に装着されるものには限定されず、たとえば、予め記憶された形状または模様を有した指示棒のようなものであってもよい。さらには、ポインタ200が用いられず、直接ユーザの指先などの指示に用いる身体の一部の形状またはその表面に施された模様が予めマーカとして処理装置100に記憶されており、カメラ300によって撮影された画像中に存在する該マーカの位置が処理装置100での画像処理によって特定されるものであってもよい。   The pointer 200 has a predetermined shape or pattern. The shape or pattern is registered in advance in the processing apparatus 100 and used as a marker. That is, the processing device 100 specifies the position of the pointer 200 as a marker present in the image photographed by the camera 300 by image processing. In the example of FIG. 1, the pointer 200 has a cylindrical shape that is attached to the user's fingertip, and the processing device 100 stores the cylindrical shape or a pattern applied to the surface thereof in advance. And However, the pointer 200 is not limited to the one attached to a part of the user's body, and may be, for example, an indicator bar having a shape or a pattern stored in advance. Further, the pointer 200 is not used, and the shape of a part of the body that is used for directing the user's fingertip or the like or the pattern provided on the surface thereof is stored in advance in the processing apparatus 100 as a marker, and is photographed by the camera 300. The position of the marker existing in the processed image may be specified by image processing in the processing apparatus 100.

なお、ポインタ200の他の例として、処理装置100と電気的に接続可能であり、位置センサ、加速度センサ、傾きセンサなどのセンサを搭載し、該ポインタ200を用いて位置を指定するユーザ操作を受付けて位置などを検出し、処理装置100に対して送信する機能を有するポインティングデバイスであってもよい。   As another example of the pointer 200, a user operation that can be electrically connected to the processing apparatus 100, is equipped with sensors such as a position sensor, an acceleration sensor, and an inclination sensor, and designates a position using the pointer 200. A pointing device having a function of receiving and detecting the position and the like and transmitting the detected position to the processing apparatus 100 may be used.

さらにポインタ200の他の例として、処理装置100と電気的に接続可能であり、音声入力を受付けるマイクであってもよい。ユーザは、該マイクを用いて指定する位置をたとえば座標などで指示することができる。この場合、処理装置100は音声解析機能を備え、マイクからの音声信号を解析して指定された位置を特定する。   Furthermore, as another example of the pointer 200, a microphone that can be electrically connected to the processing apparatus 100 and receives voice input may be used. The user can instruct the position to be designated using the microphone, for example, by coordinates. In this case, the processing apparatus 100 has a voice analysis function, and analyzes the voice signal from the microphone to identify the designated position.

処理装置100は、カメラ300から受信した画像を元に処理を行なう。そして、その処理結果をディスプレイ400に表示させるための処理を行なう。   The processing device 100 performs processing based on the image received from the camera 300. And the process for displaying the processing result on the display 400 is performed.

携帯端末600は、少なくともユーザからの入力操作を受付けるための操作部とサーバ500と通信するための通信部とを備える。操作部での操作によって後述する仮想オブジェクトに関する情報の入力を受付け、その情報をサーバ500に対して送信する。サーバ500は、入力された仮想オブジェクトの情報を記憶し、処理装置100からの要求に応じてその情報を処理装置100に提供する。   The portable terminal 600 includes at least an operation unit for receiving an input operation from a user and a communication unit for communicating with the server 500. An input of information related to a virtual object, which will be described later, is received by an operation on the operation unit, and the information is transmitted to the server 500. The server 500 stores information on the input virtual object, and provides the information to the processing device 100 in response to a request from the processing device 100.

本実施の形態にかかる表示システムが図1に示される構成である場合、ユーザがウェアラブルディスプレイであるディスプレイ400に透過性を有して表示される画像が投影された、ディスプレイ400の表示部としてのディスプレイ401(図3参照)を透過して見える風景を見ながら、指先に装着したポインタ200を使ってポイントする。   When the display system according to the present embodiment has the configuration shown in FIG. 1, the display unit of the display 400, in which a user displays an image that is displayed with transparency on the display 400 that is a wearable display, is used. Pointing using the pointer 200 attached to the fingertip while looking at the scenery that can be seen through the display 401 (see FIG. 3).

なお、図1に示された表示システムには、カメラ300からディスプレイ400で表示するため、およびポインタ200の位置を特定するための撮影画像が処理装置100に入力されるものとしている。しかしながら、ポインタ200の位置を特定するための撮影画像を得るためのカメラがカメラ300と別に備えられてもよい。   In the display system illustrated in FIG. 1, a captured image for displaying on the display 400 from the camera 300 and for specifying the position of the pointer 200 is input to the processing device 100. However, a camera for obtaining a captured image for specifying the position of the pointer 200 may be provided separately from the camera 300.

<システム構成の他の例>
なお、以降の説明において、本実施の形態にかかる表示システムは図1に示された構成であって、ユーザは、ウェアラブルディスプレイであるディスプレイ400に透過性を有して表示された画像が投影された風景をディスプレイ401を介して見ながら、その風景に対して指先に装着したポインタ200を使ってポイントするものとする。しかしながら、他の例として、ディスプレイ400がウェアラブルディスプレイではなく、たとえば図2に示されるように、カメラ300およびポインタ200と電気的に接続されたPCで構成されるものであってもよい。カメラ300とPCとの接続がインターネットを介したものである場合、カメラ300として、たとえばWEBカメラが挙げられる。PCで構成されたディスプレイ400には、カメラ300からの撮影画像と処理装置100からの画像とが合成されて表示される。この場合、ユーザはその表示を見ながら、指先に装着したポインタ200を使ってポイントすることができる。
<Other examples of system configuration>
In the following description, the display system according to the present embodiment has the configuration shown in FIG. 1, and the user projects an image displayed with transparency on the display 400 that is a wearable display. It is assumed that the user points to the scenery using the pointer 200 attached to the fingertip while viewing the scenery through the display 401. However, as another example, the display 400 may not be a wearable display, but may be constituted by a PC electrically connected to the camera 300 and the pointer 200 as shown in FIG. When the connection between the camera 300 and the PC is via the Internet, the camera 300 may be a WEB camera, for example. On the display 400 configured by the PC, the captured image from the camera 300 and the image from the processing apparatus 100 are combined and displayed. In this case, the user can point using the pointer 200 attached to the fingertip while viewing the display.

<装置構成>
処理装置100、サーバ500、および携帯端末600は上述のように一般的なPCや携帯電話機などで構成されてもよいので、その装置構成は特定の構成に限定されない。すなわち、処理装置100、サーバ500、および携帯端末600は、少なくとも、全体を制御するためのCPU(Central Processing Unit)、CPUで実行するプログラムや仮想現実を表示するために必要な画像情報などを記憶するためのROM(Read Only Memory)やRAM(Random Access Memory)などのメモリ、および他の装置と電気的に接続してデータのやり取りを行なうための通信インタフェース(I/F)を含む。また、携帯端末600は、上述のように、ユーザからの操作入力を受付ける操作部をさらに含む。
<Device configuration>
Since the processing device 100, the server 500, and the mobile terminal 600 may be configured by a general PC, a mobile phone, or the like as described above, the device configuration is not limited to a specific configuration. That is, the processing device 100, the server 500, and the portable terminal 600 store at least a CPU (Central Processing Unit) for controlling the whole, a program executed by the CPU, image information necessary for displaying virtual reality, and the like. For example, a ROM (Read Only Memory) or a RAM (Random Access Memory), and a communication interface (I / F) for electrical connection with other devices to exchange data. In addition, as described above, the mobile terminal 600 further includes an operation unit that receives an operation input from the user.

カメラ300は、カメラ部と、撮影画像やプログラムを記憶するためのメモリと、撮影画像を処理装置100に送信する処理を実行するためのCPUと、当該カメラ300の位置を検知するためのセンサと、処理装置100と電気的に接続して撮影画像を送信するための通信I/Fとを含む。   The camera 300 includes a camera unit, a memory for storing captured images and programs, a CPU for executing processing for transmitting the captured images to the processing device 100, and a sensor for detecting the position of the camera 300. And a communication I / F for electrically connecting to the processing apparatus 100 to transmit a captured image.

図3は、ディスプレイ400の装置構成の具体例を示すブロック図である。図3を参照して、ディスプレイ400は、表示部としての、透過性を有したディスプレイ401と、表示画像をディスプレイ401に表示する処理を実行するためのCPU402と、処理装置100と電気的に接続して表示画像を受信するための通信I/F403とを含む。   FIG. 3 is a block diagram illustrating a specific example of the device configuration of the display 400. Referring to FIG. 3, display 400 is electrically connected to display 401 having transparency as a display unit, CPU 402 for executing processing for displaying a display image on display 401, and processing device 100. And a communication I / F 403 for receiving a display image.

CPU402は通信I/F403によって受信されるネットワーク上のデータ(パケット)のうちの、処理装置100から送信される表示用のデータを取得する。   The CPU 402 obtains display data transmitted from the processing device 100 among data (packets) on the network received by the communication I / F 403.

図4は、ポインティングデバイスである場合の、ポインタ200の装置構成の具体例を示すブロック図である。図4を参照して、ポインタ200は、一例として、位置検出センサ201、加速度センサ202、方向性検知センサ(傾きセンサ)203などのセンサと、これらセンサで位置情報等を検出する処理を実行するためのCPU204と、処理装置100と電気的に接続して検出結果を送信するための通信I/F205とを含む。さらに、図示しない、センサでの検出結果やプログラムを記憶するためのメモリが含まれていてもよい。   FIG. 4 is a block diagram showing a specific example of the device configuration of the pointer 200 in the case of a pointing device. Referring to FIG. 4, pointer 200 executes, as an example, a sensor such as position detection sensor 201, acceleration sensor 202, directionality detection sensor (tilt sensor) 203, and processing for detecting position information and the like using these sensors. And a communication I / F 205 for electrically connecting to the processing apparatus 100 and transmitting a detection result. Furthermore, a memory (not shown) for storing the detection result of the sensor and the program may be included.

<動作概要>
本実施の形態にかかる表示システムは、コンピュータグラフィックスなどによって予め生成された仮想物体(仮想オブジェクト)を表わす画像を、現実世界を表わす撮影画像に対して携帯端末600で設定された表示位置に応じて、ディスプレイ400に透過性を有して表示する。これにより、ウェアラブルディスプレイであるディスプレイ400を装着したユーザには、仮想オブジェクトがディスプレイ400を介して視認できる現実世界に浮かんでいるように見える。このとき、実際に浮かんでいるように仮想オブジェクトをディスプレイ400に表示させるため、携帯端末600で仮想オブジェクトの表示位置に対して奥行きを設定し、設定された奥行きに応じて3次元で仮想オブジェクトを表示する。これにより、仮想オブジェクトは、ディスプレイ400を介して視認できる実空間のある奥行きの位置に浮かんでいるように表示される。
<Overview of operation>
In the display system according to the present embodiment, an image representing a virtual object (virtual object) generated in advance by computer graphics or the like is displayed in accordance with a display position set on mobile terminal 600 with respect to a captured image representing the real world. The display 400 is displayed with transparency. As a result, for a user wearing the display 400 that is a wearable display, the virtual object appears to be floating in the real world where the virtual object can be visually recognized via the display 400. At this time, in order to display the virtual object on the display 400 so as to actually float, the depth is set with respect to the display position of the virtual object on the portable terminal 600, and the virtual object is displayed in three dimensions according to the set depth. indicate. As a result, the virtual object is displayed so as to float at a certain depth in the real space that can be viewed through the display 400.

「仮想オブジェクト」とは、現実世界を表わす撮影画像内のコンテンツに関連付けられた選択肢である3次元の画像を指す。仮想オブジェクトごとに、当該仮想オブジェクトを表示させるための画像情報と、撮影画像で表わされた撮影空間に対して設定された3次元の座標系における表示位置(以下、仮想オブジェクト座標とも称する)と、選択されることによって実行される動作とが規定されている。この仮想オブジェクトに関する情報は携帯端末600によって設定され、サーバ500に記憶されている。   A “virtual object” refers to a three-dimensional image that is an option associated with content in a captured image representing the real world. For each virtual object, image information for displaying the virtual object, and a display position (hereinafter also referred to as virtual object coordinates) in a three-dimensional coordinate system set for the shooting space represented by the shot image. The operation to be executed by being selected is defined. Information regarding the virtual object is set by the portable terminal 600 and stored in the server 500.

処理装置100は、カメラ300から入力された撮影画像にその撮影空間に対して設定されている3次元座標系を設定した上で、同じ3次元座標系で表示位置、奥行きが設定されている仮想オブジェクトの表示位置を特定する。そして、その位置に表示させるように該仮想オブジェクトの画像を処理し、処理された表示画像をディスプレイ400に対して送信する。   The processing apparatus 100 sets a three-dimensional coordinate system set for the photographing space in the photographed image input from the camera 300 and then sets a display position and a depth in the same three-dimensional coordinate system. Specify the display position of the object. Then, the image of the virtual object is processed so as to be displayed at the position, and the processed display image is transmitted to the display 400.

処理装置100は、撮影画像に対して画像処理を実行することによってポインタ200で指定された位置を特定し、その位置を、撮影空間に対して設定されている3次元座標系における位置に変換する。そして、指定された位置に応じた仮想オブジェクトに対して規定された動作を実行する。または、該動作を実行させるために図示しない必要な装置に対して制御信号を出力する。   The processing device 100 identifies the position designated by the pointer 200 by executing image processing on the photographed image, and converts the position into a position in a three-dimensional coordinate system set for the photographing space. . Then, a prescribed action is performed on the virtual object corresponding to the designated position. Alternatively, a control signal is output to a necessary device (not shown) to execute the operation.

この表示システムの用いられ方の一例として、図5に示されるような用いられ方が挙げられる。図5は、ウェアラブルディスプレイであるディスプレイ400を介して視認される室内である実空間に、仮想現実である画像情報を投影するように当該画像情報をディスプレイ400に透過性を有して表示させた、表示システムでの表示の一例を示している。図5において、3次元の球体が仮想オブジェクトを表わしている。   An example of how this display system is used is as shown in FIG. In FIG. 5, the image information is displayed on the display 400 with transparency so that the image information that is virtual reality is projected onto the real space in the room that is visually recognized through the display 400 that is a wearable display. 1 shows an example of display on a display system. In FIG. 5, a three-dimensional sphere represents a virtual object.

図5の表示は、ウェアラブルディスプレイであるディスプレイ400を装着したユーザが机に向かっているユーザの右後ろに立って室内に向いたときに、ディスプレイ400に透過性を有して表示された仮想オブジェクトが投影されて当該ユーザに視認される風景を表わした表示である。   The display of FIG. 5 is a virtual object displayed on the display 400 with transparency when the user wearing the display 400, which is a wearable display, stands at the right rear of the user facing the desk and faces the room. Is a display representing a landscape projected by the user.

図5の例において、仮想オブジェクトで表わされた選択肢は、実空間である室内のコンテンツとしてカレンダやユーザの左上の位置の実座標と関連付けられている。そのため、仮想オブジェクトは、予め規定された表示位置に基づいて、図5の例では、カレンダやユーザの左上の位置の近傍など、選択肢が関連付けられたコンテンツの近傍に3次元の仮想オブジェクトが表示されている。   In the example of FIG. 5, the options represented by virtual objects are associated with the actual coordinates at the upper left position of the calendar or user as the contents in the room that is the real space. Therefore, the virtual object is displayed based on a predetermined display position, in the example of FIG. 5, in the example of FIG. ing.

その表示を視認しながらウェアラブルディスプレイを装着したユーザがポインタ200を装着した指先等をディスプレイ400に表示される仮想オブジェクトの位置にすると、該ユーザは、該仮想オブジェクトに対して規定された動作として、関連付けされているデータが表示され閲覧できたり、リモコンの様に対応した機器を操作できたりする。一例として、図5のカレンダの近傍に表示されている仮想オブジェクトにポインタ200で触れると、予め登録されているユーザのスケジュール情報が表示される。また、他の例として、ユーザの左上の仮想オブジェクトに触れると、予めその位置と対応付けられている空気調和機に対して制御信号が出力され、空調温度が変更される。   When the user wearing the wearable display while visually recognizing the display makes the fingertip or the like wearing the pointer 200 the position of the virtual object displayed on the display 400, the user performs the following movements as defined for the virtual object: The associated data is displayed and can be viewed, and the corresponding device can be operated like a remote control. As an example, when a virtual object displayed in the vicinity of the calendar in FIG. 5 is touched with the pointer 200, schedule information of a user registered in advance is displayed. As another example, when a user touches the virtual object at the upper left, a control signal is output to an air conditioner that is associated with the position in advance, and the air conditioning temperature is changed.

この表示システムの用いられ方の他の例として、図6に示されるような用いられ方が挙げられる。図6は、ウェアラブルディスプレイであるディスプレイ400を介して視認される工場内である実空間に、仮想現実である画像情報を投影するように当該画像情報をディスプレイ400に透過性を有して表示させた、表示システムでの表示の一例を示している。図6においても、3次元の球体が仮想オブジェクトを表わしている。   Another example of how this display system is used is as shown in FIG. FIG. 6 shows the display 400 with transparency on the display 400 so that the image information of the virtual reality is projected onto the real space in the factory visually recognized through the display 400 which is a wearable display. In addition, an example of display on the display system is shown. Also in FIG. 6, a three-dimensional sphere represents a virtual object.

図6の表示は、ウェアラブルディスプレイであるディスプレイ400を装着したユーザが机に向かっている2人のユーザのさらに右側に立って室内から工場に向いたときに、ディスプレイ400に透過性を有して表示された仮想オブジェクトが投影されて当該ユーザに視認される風景を表わした表示である。   The display in FIG. 6 shows that the display 400 has transparency when the user wearing the display 400 that is a wearable display stands further to the right of the two users facing the desk and faces the factory from the room. The displayed virtual object is projected and displayed as a scene visually recognized by the user.

図6の例において、仮想オブジェクトで表わされた選択肢は、実空間である工場内のコンテンツとしての機器などの実座標と関連付けられている。そのため、仮想オブジェクトは、予め規定された表示位置に基づいて、図6の例では、工場内の各機器の近傍など、選択肢が関連付けられたコンテンツの近傍に3次元の仮想オブジェクトが表示されている。   In the example of FIG. 6, options represented by virtual objects are associated with real coordinates such as equipment as content in a factory that is a real space. Therefore, the virtual object is displayed in the vicinity of the content associated with the option, such as the vicinity of each device in the factory, in the example of FIG. 6 based on the display position defined in advance. .

その表示を視認しながらウェアラブルディスプレイを装着したユーザがポインタ200を装着した指先等をディスプレイ400に表示される仮想オブジェクトの位置にすると、該仮想オブジェクトに対して規定された動作の一例として、関連付けされている工場内の各機器から発信されている情報(進捗管理、エラー情報、取扱方法)にアクセスできる。より好ましくは、表示システムにおいて、エラーの緊急度やアクセスできるデータの種類に応じて、予め設定された対応関係に基づいて仮想オブジェクトの色や形を変更させてもよい。これにより、エラーの緊急度やアクセスできるデータの種類などをユーザに分かりやすく報知することができる。   When the user wearing the wearable display while visually recognizing the display makes the fingertip or the like wearing the pointer 200 the position of the virtual object displayed on the display 400, the virtual object is associated as an example of an action defined for the virtual object. You can access information (progress management, error information, handling method) sent from each device in the factory. More preferably, in the display system, the color and shape of the virtual object may be changed based on a preset correspondence relationship according to the urgency of the error and the type of accessible data. This makes it possible to inform the user of the urgency level of the error, the type of data that can be accessed, and the like in an easily understandable manner.

より好ましくは、仮想オブジェクトに関する情報はユーザごと、またはユーザの所属するグループ(部署等)に対応付けられてもよい。このようにすることで、予め当該表示システムにログインすることによって、ユーザまたはユーザの所属するグループに付与された権限により該ユーザまたはグループに応じた(操作可能または許可された)仮想オブジェクトが表示される。   More preferably, the information on the virtual object may be associated with each user or a group (department or the like) to which the user belongs. Thus, by logging in to the display system in advance, the virtual object corresponding to the user or the group (operable or permitted) is displayed according to the authority given to the user or the group to which the user belongs. The

図5や図6に表わされたように、表示システムでの表示では、2次元の表示装置であるディスプレイ400に仮想オブジェクトが3次元表示されるものである。そのため、仮想オブジェクトの奥行き感が視認し難いと、ユーザがそのうちの所望する仮想オブジェクトを指定し難くなる。特に、ディスプレイ400にて、異なる奥行きが設定された複数の仮想オブジェクトが近接して表示されると、それぞれの奥行き感が視認されないと、2次元平面の表示画面では仮想オブジェクトの表示が重なり、ユーザがそのうちの所望する仮想オブジェクトを指定し難くなる。   As shown in FIGS. 5 and 6, in the display on the display system, the virtual object is three-dimensionally displayed on the display 400 which is a two-dimensional display device. Therefore, if it is difficult to visually recognize the sense of depth of the virtual object, it is difficult for the user to specify the desired virtual object. In particular, when a plurality of virtual objects having different depths are displayed close to each other on the display 400, the virtual objects are overlapped on the two-dimensional plane display screen unless the sense of depth is visually recognized. However, it becomes difficult to specify a desired virtual object.

そこで、本実施の形態にかかる表示システムは、仮想オブジェクトに規定された表示位置(3次元座標)とポインタ200で指定された位置(3次元座標)との間の距離に応じた表示処理を実行することで、このような場合であっても、ユーザが所望する仮想オブジェクトを指定しやすいように表示する。   Therefore, the display system according to the present embodiment executes display processing according to the distance between the display position (three-dimensional coordinates) defined for the virtual object and the position (three-dimensional coordinates) specified by the pointer 200. Thus, even in such a case, the virtual object desired by the user is displayed so that it can be easily specified.

具体的に、処理装置100は、仮想オブジェクトの表示位置とポインタ200での指定位置との間の関係に基づいて、ポインタ200でのポインタ位置から所定の範囲内にある仮想オブジェクトは指定される可能性のある仮想オブジェクトと特定し、その範囲内にない仮想オブジェクトは指定される可能性の低い仮想オブジェクトと特定する。この、指定される可能性の低い仮想オブジェクトは、以降の説明において「仮想対象外オブジェクト」と称する。   Specifically, the processing device 100 can designate a virtual object within a predetermined range from the pointer position on the pointer 200 based on the relationship between the display position of the virtual object and the designated position on the pointer 200. The virtual object is identified as a virtual object that is not likely to be designated. This virtual object that is unlikely to be designated is referred to as a “virtual object” in the following description.

処理装置100は、仮想対象外オブジェクトの表示態様をそうでない仮想オブジェクトの表示態様と異ならせることで、ユーザに指定する可能性の高い仮想オブジェクトの指定をしやすく表示する。   The processing apparatus 100 makes it easy to specify a virtual object that is likely to be specified to the user by making the display mode of the virtual non-target object different from the display mode of the virtual object that is not so.

<機能構成>
図7は、本実施の形態にかかる表示システムが上の動作概要で説明された動作を行なうための、処理装置100の機能構成の具体例を示すブロック図である。図7は、主に、図示しないCPUがメモリに記憶されるプログラムを読み出して実行することで、CPUが画像処理統括部として機能する場合の機能構成の具体例を示している。図7に示された機能は、主にCPU上に構成されるものである。しかしながら、その一部がハードウェア構成で実現されてもよい。
<Functional configuration>
FIG. 7 is a block diagram showing a specific example of a functional configuration of the processing apparatus 100 for the display system according to the present embodiment to perform the operation described in the above operation outline. FIG. 7 mainly shows a specific example of a functional configuration when the CPU functions as an image processing control unit by reading and executing a program stored in a memory by a CPU (not shown). The functions shown in FIG. 7 are mainly configured on the CPU. However, a part of it may be realized by a hardware configuration.

図7を参照して、画像処理統括部として機能する処理装置100のCPUは、カメラ300からの撮影画像の入力を受付けるためのカメラ画像入力部101Aと、ポインタ200からの入力信号を受付けるためのポインタデータ入力部101Bと、サーバ500から提供される仮想オブジェクト情報の入力を受付けるための仮想オブジェクト情報入力部101Cと、これら入力された情報に基づいてポインタ200でのポイント位置および仮想オブジェクトの表示領域などの検出を行なうためのポインタオブジェクト抽出部102と、入力された撮影画像に対して画像認識処理を行なうことで、抽出されたポインタ200でのポイント位置および仮想オブジェクトの表示領域などの撮影画像上の位置(座標)を特定するための画像認識処理部103と、ポインタ200の形状を記憶しておくためのポインタ形状記憶部104と、必要に応じて記憶されているポインタ200の形状を用いて撮影画像上にポインタ200を表示させる表示データを生成するためのポインタ表示データ生成部105と、画像認識処理部103での処理結果に基づいて、ポインタ200での表示位置(以下、ポインタ位置とも称する)と仮想オブジェクトの表示位置との距離を算出するための仮想オブジェクト−ポインタ間距離判定部106と、仮想対象外オブジェクトについて表示位置との距離を算出するための仮想対象外オブジェクト−ポインタ間距離判定部107と、仮想対象外オブジェクトについてオブジェクトごとに表示位置を記憶するための仮想対象外オブジェクト座標記憶部108と、後述する処理を行なって仮想対象外オブジェクトを表示させる表示データを生成するための仮想対象外オブジェクト表示データ生成部109と、表示させる仮想対象外オブジェクトの形状を記憶するための仮想対象外オブジェクト形状記憶部110と、生成された表示データをディスプレイ400に透過性を有して表示させるための表示画像を生成するための表示処理部111とを含む。   Referring to FIG. 7, the CPU of processing apparatus 100 functioning as an image processing control unit receives a camera image input unit 101 </ b> A for receiving an input of a captured image from camera 300 and an input signal from pointer 200. Pointer data input unit 101B, virtual object information input unit 101C for accepting input of virtual object information provided from server 500, point position on pointer 200 and display area of virtual object based on these input information By performing image recognition processing on the input captured image, the pointer object extraction unit 102 for detecting the above and the like on the captured image such as the point position on the extracted pointer 200 and the display area of the virtual object Image recognition processing unit for specifying the position (coordinates) 03, the pointer shape storage unit 104 for storing the shape of the pointer 200, and the display data for displaying the pointer 200 on the captured image are generated using the shape of the pointer 200 stored as necessary. In order to calculate the distance between the display position on the pointer 200 (hereinafter also referred to as the pointer position) and the display position of the virtual object based on the processing results of the pointer display data generation unit 105 and the image recognition processing unit 103. Virtual object-pointer distance determination unit 106, a virtual non-object-to-pointer distance determination unit 107 for calculating a distance from the display position of the virtual non-target object, and a display position for each virtual non-target object for each object. A virtual non-target object coordinate storage unit 108 for storing A virtual non-target object display data generating unit 109 for generating display data for displaying virtual non-target objects by performing the processing described above, and a virtual non-target object shape storage unit for storing the shapes of virtual non-target objects to be displayed 110 and a display processing unit 111 for generating a display image for displaying the generated display data on the display 400 with transparency.

さらに図7を参照して、ポインタオブジェクト抽出部102は、ポインタ抽出部1021と、仮想オブジェクト抽出部1022と仮想対象外オブジェクト抽出部1023とを含む。   Further, referring to FIG. 7, pointer object extraction unit 102 includes a pointer extraction unit 1021, a virtual object extraction unit 1022, and a virtual non-target object extraction unit 1023.

ポインタ抽出部1021は、ポインタ200で指示された位置を撮影画像から抽出するための機能である。具体的には、入力された撮影画像からポインタ形状記憶部104に記憶されているポインタ200の形状を抽出する。   The pointer extraction unit 1021 is a function for extracting the position designated by the pointer 200 from the captured image. Specifically, the shape of the pointer 200 stored in the pointer shape storage unit 104 is extracted from the input captured image.

仮想オブジェクト抽出部1022および仮想対象外オブジェクト抽出部1023は、それぞれ、撮影画像において仮想オブジェクトおよび仮想対象外オブジェクトが表示される領域を抽出するための機能である。   The virtual object extraction unit 1022 and the virtual non-target object extraction unit 1023 are functions for extracting a region where a virtual object and a virtual non-target object are displayed in the captured image, respectively.

具体的には、サーバ500に予め仮想オブジェクトに規定されている情報として該仮想オブジェクトの3次元座標系での表示位置が記憶されており、仮想オブジェクト抽出部1022は、その情報に基づいて処理対象の仮想オブジェクトの表示位置を含む領域を表示領域として抽出する。また、仮想対象外オブジェクト座標記憶部108に予め仮想対象外オブジェクトに規定されている情報として該仮想対象外オブジェクトの3次元座標系での表示位置が記憶されており、仮想対象外オブジェクト抽出部1023は、記憶された情報に基づいて処理対象の仮想対象外オブジェクトの表示位置を含む領域を表示領域として抽出する。   Specifically, the display position of the virtual object in the three-dimensional coordinate system is stored in the server 500 as information preliminarily defined for the virtual object, and the virtual object extraction unit 1022 performs processing based on the information. An area including the display position of the virtual object is extracted as a display area. Further, the display position of the virtual non-target object in the three-dimensional coordinate system is stored in the virtual non-target object coordinate storage unit 108 as information preliminarily defined for the virtual non-target object, and the virtual non-target object extraction unit 1023 is stored. Extracts a region including the display position of the virtual non-target object to be processed as a display region based on the stored information.

さらに図7を参照して、画像認識処理部103は、ポインタ座標検出部1031と、仮想オブジェクト表示領域検出部1032と仮想対象外オブジェクト表示領域検出部1033とを含む。   Further, referring to FIG. 7, the image recognition processing unit 103 includes a pointer coordinate detection unit 1031, a virtual object display area detection unit 1032, and a virtual non-target object display area detection unit 1033.

ポインタ座標検出部1031は、ポインタオブジェクト抽出部102で抽出されたポインタ200で指示された位置を撮影画像上で特定するための機能である。具体的には、ポインタオブジェクト抽出部102で抽出されたポインタ200で指示された位置の、撮影画像上における位置や奥行きを特定する。そして、該撮影画像に設定された3次元座標系においてその3次元の位置を表わす座標(以下、ポインタ座標とも称する)に換算する。   The pointer coordinate detection unit 1031 is a function for specifying a position indicated by the pointer 200 extracted by the pointer object extraction unit 102 on the captured image. Specifically, the position and depth on the captured image of the position indicated by the pointer 200 extracted by the pointer object extraction unit 102 is specified. And it converts into the coordinate (henceforth a pointer coordinate) showing the three-dimensional position in the three-dimensional coordinate system set to this picked-up image.

ポインタ200が上述のポインティングデバイスである場合には、処理装置100は、この機能に替えてポインティングデバイスであるポインタ200から検出結果の入力を受付けて、その検出結果に基づいて撮影画像上の位置を特定する機能を有する。   When the pointer 200 is the above-described pointing device, the processing apparatus 100 accepts an input of a detection result from the pointer 200 that is a pointing device instead of this function, and determines the position on the captured image based on the detection result. Has a function to identify.

仮想オブジェクト表示領域検出部1032および仮想対象外オブジェクト表示領域検出部1033は、それぞれ、ポインタオブジェクト抽出部102で抽出された仮想オブジェクトの表示領域および仮想対象外オブジェクトの表示領域の、撮影画像に設定された3次元座標系における領域を表示領域として検出する。   The virtual object display area detection unit 1032 and the virtual non-target object display area detection unit 1033 are set as captured images of the virtual object display area and the virtual non-target object display area extracted by the pointer object extraction unit 102, respectively. An area in the three-dimensional coordinate system is detected as a display area.

また、仮想オブジェクト表示領域検出部1032および仮想対象外オブジェクト表示領域検出部1033は、後述する表示処理によって仮想オブジェクトまたは仮想対象外オブジェクトについて予め規定されている表示位置が変化した場合に、変化後の表示位置を特定する。   In addition, the virtual object display area detection unit 1032 and the virtual non-target object display area detection unit 1033 display the post-change when the display position defined in advance for the virtual object or the virtual non-target object is changed by the display process described later. Specify the display position.

仮想オブジェクト−ポインタ間距離判定部106および仮想対象外オブジェクト−ポインタ間距離判定部107は、それぞれ、3次元座標系で表わされたポインタ座標および仮想オブジェクト座標とからその間の距離を求める。   The virtual object-pointer distance determination unit 106 and the non-virtual object-pointer distance determination unit 107 obtain distances between the pointer coordinates and the virtual object coordinates expressed in a three-dimensional coordinate system, respectively.

さらに、仮想オブジェクト−ポインタ間距離判定部106は、予め基準距離を記憶しておき、算出された距離が該基準距離よりも大きい場合、すなわち、仮想オブジェクトの表示位置として規定された位置から所定範囲よりも遠い位置が指定された場合に、該仮想オブジェクトが指定される可能性の低い仮想オブジェクトである仮想対象外オブジェクトと判定し、その結果を仮想対象外オブジェクト表示データ生成部109に入力する。同様に、仮想対象外オブジェクト−ポインタ間距離判定部107も、算出された距離が上記基準距離よりも大きい場合、引き続き対象の仮想オブジェクトが指定される可能性の低い仮想対象外オブジェクトと判定し、その結果を仮想対象外オブジェクト表示データ生成部109に入力する。   Further, the virtual object-pointer distance determination unit 106 stores a reference distance in advance, and when the calculated distance is larger than the reference distance, that is, a predetermined range from the position defined as the display position of the virtual object. When a position farther than is specified, it is determined that the virtual object is a virtual non-target object that is unlikely to be specified, and the result is input to the virtual non-target object display data generation unit 109. Similarly, the virtual non-object-to-pointer distance determination unit 107 also determines that the target virtual object is unlikely to be designated as a virtual non-target object when the calculated distance is larger than the reference distance. The result is input to the virtual non-object display data generation unit 109.

仮想対象外オブジェクト表示データ生成部109はかかる判定結果に応じて当該仮想オブジェクトを対象外オブジェクトとして表示するための表示データを生成する。この処理については、以降の各実施の形態において具体的に説明する。   The virtual non-object display data generation unit 109 generates display data for displaying the virtual object as a non-target object according to the determination result. This process will be specifically described in each of the following embodiments.

<基本の表示動作フロー>
本実施の形態にかかる表示システムにおいて、ユーザから見える現実世界を表わす撮影画像にコンピュータグラフィックス等によって描かれた仮想物体(仮想オブジェクト)を表わす画像情報を重畳して表示させる動作について説明する。ここでは、具体例として、拡張現実感の研究のためにワシントン大学HIT研究室で開発されたソフトウェアライブラリとしてのプログラムを用いて実現される動作について説明する。用いられるプログラムはこのプログラムに限定されない。
<Basic display operation flow>
In the display system according to the present embodiment, an operation for superimposing and displaying image information representing a virtual object (virtual object) drawn by computer graphics or the like on a photographed image representing the real world seen by the user will be described. Here, as a specific example, an operation realized using a program as a software library developed at the University of Washington HIT Laboratory for augmented reality research will be described. The program used is not limited to this program.

図8は、基本の表示動作の具体例を示すフローチャートである。図8のフローチャートに示される動作は、処理装置100の図示しないCPUがメモリに記憶されている上述のようなプログラムを読み出して実行することによって実現される。   FIG. 8 is a flowchart showing a specific example of the basic display operation. The operation shown in the flowchart of FIG. 8 is realized by a CPU (not shown) of the processing apparatus 100 reading and executing the above-described program stored in the memory.

図8を参照して、まず、処理が開始するとステップS101で画像処理統括部として機能するCPUは、初期化処理を実行する。ここでの初期化処理の一つとして、図示しないメモリに記憶されている撮影画像に対して設定した座標系を初期化する処理が含まれる。   Referring to FIG. 8, first, when the process starts, the CPU functioning as the image processing control unit executes an initialization process in step S <b> 101. One of the initialization processes here includes a process of initializing a coordinate system set for a captured image stored in a memory (not shown).

ステップS103でCPUは、カメラ300からの撮影画像の入力を受付けて、撮影画像を取得する。CPUは、撮影画像(1フレーム)が入力されるごとに当該撮影画像に基づいて仮想オブジェクトの表示位置を特定してその表示位置に応じた処理を当該仮想オブジェクトの画像データに対して施し、ディスプレイ400に表示画像を送信する動作を繰り返す。これにより、カメラ300の移動に伴って連続的に入力される撮影画像に応じて、連続的に3次元の仮想オブジェクトが透過性を有してディスプレイ400に表示されるようになる。   In step S <b> 103, the CPU receives an input of a captured image from the camera 300 and acquires a captured image. The CPU identifies the display position of the virtual object based on the photographed image every time a photographed image (one frame) is input, performs a process corresponding to the display position on the image data of the virtual object, and displays the display. The operation of transmitting the display image to 400 is repeated. Thereby, according to the captured image continuously input with the movement of the camera 300, a three-dimensional virtual object is continuously displayed on the display 400 with transparency.

ステップS105でCPUは、入力された撮影画像を図示しない描画用のメモリに描画し、ステップS107でそのメモリに展開された画像の中から座標系の基準となる位置を特定するコンテンツを表わす撮影画像に含まれる画像を、マーカとして検出する。CPUは、予め基準とする状態でのマーカとする画像、および、そのマーカと撮影空間に設定される3次元座標系における座標との関係を記憶している。   In step S105, the CPU draws the input photographed image in a drawing memory (not shown), and in step S107, the photographed image representing the content specifying the position serving as the reference of the coordinate system from the images developed in the memory. Are detected as markers. The CPU stores in advance an image to be a marker in a reference state and a relationship between the marker and coordinates in a three-dimensional coordinate system set in the imaging space.

一例として、CPUはマーカの画像として図9の画像を記憶しているものとする。そして、一例として、撮影空間のこのマーカの画像に表わされた板状のコンテンツのある位置を、3次元座標系の原点とし、このコンテンツに対して3方向に、x軸、y軸、z軸を設定する、との3次元座標系との対応関係を記憶しているものとする。   As an example, it is assumed that the CPU stores the image of FIG. 9 as a marker image. As an example, the position of the plate-like content represented in the image of this marker in the shooting space is set as the origin of the three-dimensional coordinate system, and the x-axis, y-axis, z in three directions with respect to this content. It is assumed that the correspondence relationship with the three-dimensional coordinate system of setting an axis is stored.

この場合、ステップS107でCPUは、メモリに展開した撮影画像から図9の画像を検索する。そして、その画像またはその画像に近似した画像を検出すると、撮影画像内にマーカが存在すると認識し、ステップS109でCPUは、その信頼度を比較する。ステップS109での処理の一例として、CPUは、予め記憶されているマーカの画像と検出された画像とを比較し、その相関度合いが基準として設定されているものを満たしているか否かで信頼度を比較する。   In this case, in step S107, the CPU retrieves the image of FIG. 9 from the captured image developed in the memory. When the image or an image similar to the image is detected, it is recognized that a marker exists in the captured image, and the CPU compares the reliability in step S109. As an example of the process in step S109, the CPU compares the marker image stored in advance with the detected image, and determines whether or not the degree of correlation satisfies a criterion set as a reference. Compare

その後、ステップS111でCPUは、撮影画像から検出されたマーカの画像の位置や、検出されたマーカの画像と記憶している画像との比較に基づいて、この撮影画像を撮影した時のカメラ300の位置や方向を計算する。そして、ステップS113で、計算されたカメラ300の位置や方向に基づいて、撮影画像に対して、予めマーカとした画像の位置を原点とし、マーカとした画像の傾きに応じてx軸、y軸、z軸を設定する。   Thereafter, in step S111, the CPU 300 captures the captured image based on the position of the marker image detected from the captured image and the comparison between the detected marker image and the stored image. Calculate the position and direction. In step S113, based on the calculated position and direction of the camera 300, with respect to the captured image, the position of the image as a marker in advance is used as the origin, and the x-axis and y-axis are set according to the inclination of the image as the marker. , Set the z-axis.

さらに、記憶されている仮想オブジェクトの情報に基づいて、表示位置として3次元座標で記憶されているそれぞれの仮想オブジェクト座標を撮影画像に設定された3次元座標系において特定し、撮影画像の奥行きや傾きに応じて仮想対象外オブジェクトの画像を変換(変形)した上で、特定された位置に透過性を有して表示させる。これにより、仮想オブジェクトが、規定された表示位置に、その撮影位置、撮影方向に応じた形状で3次元に表示される。   Further, based on the stored virtual object information, each virtual object coordinate stored as a display position in three-dimensional coordinates is specified in a three-dimensional coordinate system set in the photographed image, and the depth of the photographed image or The image of the virtual non-target object is converted (deformed) according to the tilt, and is displayed with transparency at the specified position. As a result, the virtual object is three-dimensionally displayed at the specified display position in a shape corresponding to the shooting position and shooting direction.

たとえば、図9の画像がマーカの画像として記憶されているところ、撮影画像中に図10(A)の画像がマーカとして検出された場合、カメラ300の撮影位置がマーカで表わされたコンテンツの正面よりも向かって右側上方、撮影方向が該コンテンツを見下ろす角度と、カメラ300の位置や方向が計算される。CPUは、予め該マーカとの関係で規定されている3次元の座標系を撮影位置、撮影方向に基づいて撮影画像に対して設定する。   For example, when the image of FIG. 9 is stored as a marker image, and the image of FIG. 10A is detected as a marker in the captured image, the shooting position of the camera 300 is the content represented by the marker. The angle at which the shooting direction looks down on the content and the position and direction of the camera 300 are calculated. The CPU sets a three-dimensional coordinate system defined in advance in relation to the marker for the captured image based on the imaging position and the imaging direction.

さらに、仮想オブジェクトに関する情報において、図9の画像に示されたマーカとするコンテンツのある原点を表示位置とする仮想オブジェクトがあり、その仮想オブジェクトの形状が立方体である場合、CPUは、その仮想オブジェクトの形状をカメラ300から該コンテンツまでの距離や方向などに基づいて変形して、規定された表示位置に透過性を有して描画する。これにより、図10(B)に示されるように、原点とするマーカの画像の近傍にマーカで表わされたコンテンツと同じ位置、方向から見たように変形された形状の3次元の仮想オブジェクトが、透過性を有して表示される。   Furthermore, in the information about the virtual object, when there is a virtual object whose display position is the origin where the content as the marker shown in the image of FIG. 9 is displayed, and the shape of the virtual object is a cube, the CPU Is deformed based on the distance and direction from the camera 300 to the content, and the like is drawn with transparency at a specified display position. As a result, as shown in FIG. 10B, a three-dimensional virtual object deformed as seen from the same position and direction as the content represented by the marker in the vicinity of the marker image as the origin. Are displayed with transparency.

ステップS115でCPUは、以上の処理で得られた仮想オブジェクトの画像データを、ディスプレイ400に表示のための制御信号と共に送信する。ディスプレイ400では仮想オブジェクトの画像データを表示させる処理が実行される。これにより、図10(B)に示されたように、ウェアラブルディスプレイであるディスプレイ400を介して視認される実空間に仮想オブジェクトが浮かんだ状態で視認されることになる。   In step S115, the CPU transmits the image data of the virtual object obtained by the above processing to the display 400 together with a control signal for display. On the display 400, processing for displaying image data of the virtual object is executed. As a result, as shown in FIG. 10B, the virtual object is viewed in a state where the virtual object is floated in the real space viewed through the display 400 that is a wearable display.

CPUは、表示の終了を要求する信号が入力されるまで、カメラ300から撮影画像が入力されるたびに以上の処理を繰り返す。そして、表示の終了を要求する信号の入力を受付けると(ステップS117でYES)、一連の動作を終了する。   The CPU repeats the above processing every time a photographed image is input from the camera 300 until a signal for requesting the end of display is input. When an input of a signal requesting the end of display is received (YES in step S117), the series of operations is ended.

<仮想オブジェクト−ポインタ間距離の算出フロー>
画像処理統括部として機能する処理装置100のCPUは、上述のように、仮想オブジェクトの表示された3次元座標系上の位置と、ディスプレイ400の表示画面上でポインタ200で指定された位置を該3次元座標系に換算した位置との間の距離に応じた表示処理を実行する。そこで、仮想オブジェクト−ポインタ間距離判定部106での距離の計算方法について説明する。この算出方法は、仮想対象外オブジェクト−ポインタ間距離判定部107での距離の計算方法とも同じである。
<Flow of calculating virtual object-pointer distance>
As described above, the CPU of the processing apparatus 100 functioning as the image processing control unit determines the position on the three-dimensional coordinate system where the virtual object is displayed and the position specified by the pointer 200 on the display screen of the display 400. Display processing corresponding to the distance from the position converted into the three-dimensional coordinate system is executed. Therefore, a method for calculating the distance in the virtual object-pointer distance determination unit 106 will be described. This calculation method is the same as the distance calculation method in the non-virtual object / pointer distance determination unit 107.

図11は、表示システムでの表示の一例を示す図である。図11は、ウェアラブルディスプレイであるディスプレイ400を装着したユーザによって視認される風景を表わしたものであり、当該ディスプレイ400に透過性を有して表示された画像が、当該ディスプレイ400を介して見える景色に投影されたものである。以降の例において、表示の例は、同様に、ウェアラブルディスプレイであるディスプレイ400を装着したユーザによって視認される風景を表わしたものを指す。   FIG. 11 is a diagram illustrating an example of display on the display system. FIG. 11 shows a landscape visually recognized by a user wearing a display 400 that is a wearable display, and an image displayed with transparency on the display 400 can be viewed through the display 400. It is projected on. In the following examples, the display examples similarly indicate the scenery visually recognized by the user wearing the display 400 that is a wearable display.

図11を参照して、仮想オブジェクトAと仮想オブジェクトBとが実空間に投影されてるようにディスプレイ400に表示されているものとする。この場合、サーバ500は、それぞれの仮想オブジェクトの表示位置を示す3次元座標系の座標値を記憶している。一例として、図12に示されるように、仮想オブジェクトごとに設定された表示位置を示す3次元座標値をテーブル形式で記憶している。   Referring to FIG. 11, it is assumed that virtual object A and virtual object B are displayed on display 400 so as to be projected in real space. In this case, the server 500 stores a coordinate value of a three-dimensional coordinate system indicating the display position of each virtual object. As an example, as illustrated in FIG. 12, a three-dimensional coordinate value indicating a display position set for each virtual object is stored in a table format.

CPUは、さらに、撮影画像が入力されるたびにポインタ200の撮影画像における位置を検出し、その位置を該撮影画像に設定された3次元座標系上での位置に換算して3次元座標系のポインタ座標を取得する。   The CPU further detects the position of the pointer 200 in the captured image every time the captured image is input, converts the position into a position on the 3D coordinate system set for the captured image, and the three-dimensional coordinate system. Get the pointer coordinates of.

図13は、仮想オブジェクト−ポインタ間距離を計算する動作の具体例を示すフローチャートである。   FIG. 13 is a flowchart illustrating a specific example of the operation of calculating the virtual object-pointer distance.

図13を参照して、画像処理統括部として機能する処理装置100のCPUは、ステップS201で記憶されている3次元座標系上でのポインタ座標の値と各仮想オブジェクトの座標値とを参照し、ステップS203で一例として、それぞれの座標値の差の二乗の和の平方根を算出してユークリッド距離を求めることで、ポインタ位置と各仮想オブジェクトの表示位置との間のそれぞれの、撮影画像に設定された3次元座標系における距離を計算する。   Referring to FIG. 13, the CPU of processing apparatus 100 functioning as the image processing control unit refers to the pointer coordinate value and the coordinate value of each virtual object stored on the three-dimensional coordinate system stored in step S201. In step S203, as an example, the square root of the sum of the squares of the difference between the respective coordinate values is calculated to obtain the Euclidean distance, thereby setting each captured image between the pointer position and the display position of each virtual object. The distance in the determined three-dimensional coordinate system is calculated.

以下、計算されたポインタ位置と仮想オブジェクトの表示位置との関係に基づいた表示処理の例について説明する。   Hereinafter, an example of display processing based on the relationship between the calculated pointer position and the display position of the virtual object will be described.

<表示処理例1>
図14は、ポインタ位置と仮想オブジェクトの位置との関係に基づいた表示処理の第1の例を説明する図である。図14を参照して、第1の例では、画像処理統括部として機能する処理装置100のCPUは、ポインタ位置から予め規定された第1の範囲内に仮想オブジェクト(以下、仮想対象オブジェクトとも称する)の表示位置が含まれる場合に、上記仮想対象オブジェクト以外の仮想オブジェクトを仮想対象外オブジェクトとして、その仮想対象オブジェクトの表示位置とポインタ位置との間の距離に応じて、仮想対象外オブジェクトの選択可能な範囲を仮想対象オブジェクトの選択可能な範囲よりも遠くなるように、予め当該仮想対象外オブジェクトに対して設定されている画像情報を変換する。
<Display processing example 1>
FIG. 14 is a diagram illustrating a first example of display processing based on the relationship between the pointer position and the virtual object position. Referring to FIG. 14, in the first example, the CPU of processing apparatus 100 functioning as an image processing control unit has a virtual object (hereinafter also referred to as a virtual target object) within a first range defined in advance from the pointer position. ) Is included, a virtual object other than the virtual target object is selected as a virtual non-target object, and a virtual non-target object is selected according to the distance between the display position of the virtual target object and the pointer position. Image information set in advance for the non-virtual target object is converted so that the possible range is farther than the selectable range of the virtual target object.

ここで、仮想オブジェクトの画像情報は特定の点を中心とする球形であるものとし、その球が2次元のディスプレイ400上で3次元表示された球形の範囲内が当該仮想オブジェクトの選択可能な範囲であると規定する。   Here, it is assumed that the image information of the virtual object is a sphere centered on a specific point, and the range of the sphere in which the sphere is three-dimensionally displayed on the two-dimensional display 400 is a selectable range of the virtual object. It is prescribed that

仮想対象外オブジェクトの選択可能な範囲を仮想対象オブジェクトの選択可能な範囲よりも遠くするような変形として、具体的に、仮想対象外オブジェクトのサイズの縮小が該当する。すなわち、図14(A)に示されるように、指先に装着されたポインタ200の位置と表示されている1つの仮想オブジェクトとの間の距離が所定の距離となった場合に、図14(B)に示されるように、その仮想オブジェクトを仮想対象オブジェクトとし、それ以外の仮想オブジェクトを仮想対象外オブジェクトとして、該仮想対象外オブジェクトの表示される形状を小さくするように変形する。   Specifically, the reduction of the size of the virtual non-target object corresponds to a modification that makes the selectable range of the virtual non-target object farther than the selectable range of the virtual target object. That is, as shown in FIG. 14A, when the distance between the position of the pointer 200 attached to the fingertip and one displayed virtual object becomes a predetermined distance, FIG. ), The virtual object is set as a virtual target object, and the other virtual objects are set as non-virtual target objects so that the displayed shape of the virtual non-target object is reduced.

この表示処理を行なうため、仮想オブジェクト−ポインタ間距離判定部106は上記第1の範囲を規定する基準距離を記憶しておく。そして、仮想オブジェクト−ポインタ間距離判定部106は上記基準距離と比較することで、仮想対象オブジェクトを特定する。   In order to perform this display process, the virtual object-pointer distance determination unit 106 stores a reference distance that defines the first range. Then, the virtual object-pointer distance determining unit 106 identifies the virtual target object by comparing with the reference distance.

また、仮想対象外オブジェクト表示データ生成部109は、予め、ポインタ200の位置と仮想対象オブジェクトとの間の距離Dの範囲ごとに、仮想対象外オブジェクトの変形の度合いを記憶しておく。一例として、ポインタ200の位置と仮想対象オブジェクトとの間の距離Dが小さくなるほど仮想対象外オブジェクトの表示倍率が小さくなるような関係が記憶されている。そして、その対応関係に基づいて、仮想対象外オブジェクトに対して規定されている表示用のデータを更新することで、表示データを生成する。   In addition, the virtual non-target object display data generation unit 109 stores in advance the degree of deformation of the virtual non-target object for each range of the distance D between the position of the pointer 200 and the virtual target object. As an example, a relationship is stored such that the display magnification of the non-virtual target object decreases as the distance D between the position of the pointer 200 and the virtual target object decreases. Then, display data is generated by updating display data defined for the virtual non-target object based on the correspondence.

図15は、第1の表示処理のための動作の具体例を示すフローチャートである。図15を参照して、ステップS301で画像処理統括部として機能する処理装置100のCPUは、ポインタ位置と仮想オブジェクトの表示位置との間の距離Dを算出する。ステップS301の動作の詳細は図13で説明されたものである。   FIG. 15 is a flowchart illustrating a specific example of the operation for the first display process. Referring to FIG. 15, the CPU of processing apparatus 100 functioning as an image processing control unit in step S301 calculates a distance D between the pointer position and the display position of the virtual object. Details of the operation in step S301 have been described with reference to FIG.

算出された距離Dが上記第1の範囲を規定する基準距離であるしきい値Dtよりも小なる場合(ステップS303でYES)、つまり、ポインタ位置から上記第1の範囲内に処理対象の仮想オブジェクトの表示位置がある場合、ステップS305でCPUは、上記第1の範囲外の仮想オブジェクトを仮想対象外オブジェクトとして抽出し、ステップS307でCPUは、ステップS301で算出された仮想対象オブジェクトとの距離Dに基づいて、ステップS305で抽出された仮想対象外オブジェクトについて上述の記憶している対応関係より表示倍率を決定して、縮小する。   When the calculated distance D is smaller than the threshold value Dt, which is a reference distance that defines the first range (YES in step S303), that is, the virtual object to be processed within the first range from the pointer position. If there is an object display position, the CPU extracts a virtual object outside the first range as a virtual non-target object in step S305, and in step S307, the CPU determines the distance from the virtual target object calculated in step S301. Based on D, the display magnification of the virtual non-target object extracted in step S305 is determined based on the stored correspondence described above and reduced.

この画像を透過性を有してディスプレイ400に表示し、ディスプレイ400を介して視認される実空間に投影させることにより、図14に示されたような表示が実現される。これにより、ポインタ位置から所定範囲内にある仮想オブジェクトが指定される可能性の高い仮想対象オブジェクトとされ、それ以外の仮想オブジェクトが仮想対象外オブジェクトとしてそのサイズが小さく表示される。そのため、ポインタ200を装着したユーザは、複数の表示される仮想オブジェクトのポインタ200からの距離を視覚的に把握しやすくなり、ポインタ200に最も近い仮想オブジェクトが指定しやすくなる。   By displaying this image on the display 400 with transparency and projecting it onto the real space visually recognized through the display 400, the display as shown in FIG. 14 is realized. Thereby, a virtual object within a predetermined range from the pointer position is set as a virtual target object that is highly likely to be specified, and other virtual objects are displayed as small objects as non-virtual target objects. Therefore, a user wearing the pointer 200 can easily grasp the distance from the pointer 200 of a plurality of displayed virtual objects, and can easily specify the virtual object closest to the pointer 200.

<変形例1>
図14の例では、仮想対象外オブジェクトの選択可能な範囲を仮想対象オブジェクトの選択可能な範囲よりも遠くするような変形として、仮想対象外オブジェクトの形状を予め規定された倍率で縮小するものとしているが、他の処理でもよい。他の例として、たとえば図16に示されるように、仮想対象外オブジェクトの形状を縦長に伸びる形状に変形したり、伸張化したり、不規則な変化を起こしたりするようにしてもよい。
<Modification 1>
In the example of FIG. 14, the shape of the virtual non-target object is reduced by a predetermined magnification as a modification that makes the selectable range of the virtual non-target object farther than the selectable range of the virtual target object. However, other processing may be used. As another example, as shown in FIG. 16, for example, the shape of the virtual non-target object may be deformed into a vertically elongated shape, expanded, or irregularly changed.

または、他の例として、たとえば図17に示されるように、仮想対象外オブジェクトを透明にしたり、色彩を変化させてもよい。さらに仮想外オブジェクトの他の変化としては、たとえば、有彩色から無彩色へ変化させたり、3次元表示から2次元表示に変化させたりすることが挙げられる。なお、この場合、仮想対象外オブジェクトの表示画像の透明の部分、無彩色となった部分については、選択不可能な範囲であるものとする。すなわち、当該部分をポインタ200で指定されても、その仮想対象外オブジェクトが選択されたものとはしないように処理する。   Alternatively, as another example, for example, as illustrated in FIG. 17, the virtual non-target object may be made transparent or the color may be changed. Furthermore, other changes of the non-virtual object include, for example, changing from a chromatic color to an achromatic color, or changing from a three-dimensional display to a two-dimensional display. In this case, it is assumed that the transparent part and the achromatic part of the display image of the non-virtual object are in a non-selectable range. That is, even if the portion is designated by the pointer 200, processing is performed so that the virtual non-target object is not selected.

<変形例2>
以上の説明では、ポインタ位置から予め規定された範囲内に仮想オブジェクトの表示位置があれば、当該仮想オブジェクト以外の仮想オブジェクトの形状を小さくするものとしているが、好ましくは、ポインタ位置から予め規定された第1の範囲内に仮想オブジェクト(仮想対象オブジェクト)の表示位置があり、かつ、ポインタ位置から第1の範囲よりも広い第2の範囲内に複数の仮想オブジェクト(仮想対象外)の表示位置がある場合に、当該仮想対象外オブジェクトの形状を小さくするようにしてもよい。これは、以降の表示処理例でも同様である。
<Modification 2>
In the above description, if the display position of the virtual object is within a predetermined range from the pointer position, the shape of the virtual object other than the virtual object is reduced. In addition, the display position of the virtual object (virtual target object) is within the first range, and the display positions of the plurality of virtual objects (non-virtual target) are within the second range wider than the first range from the pointer position. If there is, the shape of the virtual non-target object may be reduced. The same applies to the following display processing examples.

このようにすることで、ポインタ位置から第2の範囲内に複数の仮想オブジェクトが表示され、ユーザが指定しようとする仮想オブジェクトが重なりあって指定し難い状態であっても、その範囲内のよりポインタ位置に近い仮想オブジェクト、すなわち、ユーザが指定する可能性の高い仮想オブジェクト以外の仮想オブジェクトが仮想対象外オブジェクトとして小さくなる(または変形する)ので、ポインタ200を装着したユーザは仮想対象オブジェクトを指定しやすくなる。   By doing this, a plurality of virtual objects are displayed within the second range from the pointer position, and even if the virtual objects that the user intends to specify overlap and are difficult to specify, the Since a virtual object close to the pointer position, that is, a virtual object other than a virtual object that is highly likely to be designated by the user is reduced (or deformed) as a virtual non-target object, the user wearing the pointer 200 designates the virtual target object. It becomes easy to do.

<変形例3>
上の例では、ポインタ位置から第1の範囲内にある仮想オブジェクトを仮想対象オブジェクトとし、それ以外の仮想オブジェクトをすべて仮想対象外オブジェクトとしてそのサイズを縮小するなどの変形を行なうものとしている。より好ましい他の例として、第1の範囲よりも広い第2の範囲に表示位置のある仮想オブジェクトのみを仮想対象外オブジェクトとして上記変形を行なうようにしてもよい。
<Modification 3>
In the above example, a virtual object within the first range from the pointer position is set as a virtual target object, and all other virtual objects are set as non-virtual target objects and the size is reduced. As another more preferable example, only the virtual object having the display position in the second range wider than the first range may be used as the non-virtual target object.

この場合、仮想対象外オブジェクト−ポインタ間距離判定部107は上記第2の範囲を規定する基準距離を記憶しておく。そして、仮想対象外オブジェクト−ポインタ間距離判定部107は、上記基準距離と比較することで、仮想対象外オブジェクトを特定する。上記ステップS305でCPUは、上記第1の範囲外の仮想オブジェクトであって、上記第2の範囲を規定する基準距離である仮想オブジェクトを仮想対象外オブジェクトとして抽出する。   In this case, the virtual non-object-to-pointer distance determination unit 107 stores a reference distance that defines the second range. Then, the non-virtual target object-pointer distance determination unit 107 identifies the virtual non-target object by comparing with the reference distance. In step S305, the CPU extracts a virtual object that is a virtual object outside the first range and that is a reference distance that defines the second range as a virtual non-target object.

このようにすることで、変形させる仮想オブジェクトの数を抑えることができ、CPUでの処理を容易にすることができる。   By doing so, the number of virtual objects to be deformed can be reduced, and the processing in the CPU can be facilitated.

<変形例4>
上の例では、ポインタ位置と仮想対象オブジェクトの表示位置との間の距離Dに応じた、仮想対象外オブジェクトを変形させる表示倍率が記憶されているものとしている。その他の変形の例であっても同様である。しかしながら、他の例として、変形対象の仮想対象外オブジェクトとポインタ位置との距離に応じた変形の割合が記憶されており、その割合に応じて仮想対象外オブジェクトを変形させてもよい。一例として、ポインタ位置と仮想対象外オブジェクトの表示位置との間の距離に応じて、その距離が長くなるほど縮小するような表示倍率が記憶されているとすると、ポインタ位置から遠くなる仮想対象外オブジェクトほどその形状が小さくなる。そのため、ポインタ200を装着したユーザは仮想対象外オブジェクトそれぞれのポインタ200からの距離をより視覚的に把握しやすくなる。
<Modification 4>
In the above example, it is assumed that the display magnification for deforming the non-virtual target object according to the distance D between the pointer position and the display position of the virtual target object is stored. The same applies to other modified examples. However, as another example, a deformation ratio according to the distance between the virtual non-target object to be deformed and the pointer position is stored, and the virtual non-target object may be deformed according to the ratio. As an example, if a display magnification is stored such that the distance between the pointer position and the display position of the virtual non-target object decreases as the distance increases, the virtual non-target object far from the pointer position is stored. The smaller the shape. Therefore, the user wearing the pointer 200 can more easily grasp the distance from the pointer 200 of each virtual non-target object.

<変形例5>
仮想対象外オブジェクトの変形の他の例として、さらに、カメラ300での撮影具合に基づいて変形の度合いを異ならせる例が挙げられる。具体的に、ディスプレイ400に透過性を有して表示することによって2次元のディスプレイ400上で仮想対象オブジェクトに重なって透過される仮想対象外オブジェクトについて、そうでない仮想対象外オブジェクトよりも変形の度合いが大きくなるように仮想対象外オブジェクトを変形させることが挙げられる。
<Modification 5>
As another example of the deformation of the virtual non-target object, there is an example in which the degree of deformation is further changed based on the shooting condition of the camera 300. Specifically, the degree of deformation of a virtual non-target object that is transparently displayed on the two-dimensional display 400 by being displayed on the display 400 so as to overlap the virtual target object is higher than that of the non-virtual target object. For example, the virtual non-target object may be deformed so as to increase.

図18および図19は、変形例5にかかる表示の具体例を示す図である。図18に示される例は、仮想オブジェクトのうちの1つから所定範囲内にポインタ200が位置する場合に(図18(A))、当該仮想オブジェクトが仮想対象オブジェクトとされ、それ以外の仮想オブジェクトが仮想対象外オブジェクトと特定された上で、さらに、仮想対象外オブジェクトのうち、仮想対象オブジェクトと2次元のディスプレイ400上に重なって投影されるものが、そうでない仮想対象外オブジェクトよりもより小さくなるよう縮小される(図18(B))。また、図19に示される例は、仮想オブジェクトのうちの1つから所定範囲内にポインタ200が位置する場合に(図19(A))、当該仮想オブジェクトが仮想対象オブジェクトとされ、それ以外の仮想オブジェクトが仮想対象外オブジェクトと特定された上で、さらに、仮想対象外オブジェクトのうち、仮想対象オブジェクトと2次元のディスプレイ400上に重なって投影されるものが、そうでない仮想対象外オブジェクトよりもより透明度が高くなるように色彩が変更される(図19(B))。   18 and 19 are diagrams illustrating specific examples of display according to the fifth modification. In the example shown in FIG. 18, when the pointer 200 is positioned within a predetermined range from one of the virtual objects (FIG. 18A), the virtual object is set as a virtual target object, and the other virtual objects Is identified as a virtual non-target object, and among the virtual non-target objects, a virtual target object and an object projected onto the two-dimensional display 400 are smaller than other virtual non-target objects. (FIG. 18B). In the example shown in FIG. 19, when the pointer 200 is located within a predetermined range from one of the virtual objects (FIG. 19A), the virtual object is set as a virtual target object. After the virtual object is identified as a virtual non-target object, a virtual non-target object that is projected onto the virtual target object and the two-dimensional display 400 is more than a virtual non-target object. The color is changed so that the transparency becomes higher (FIG. 19B).

この場合、上記ステップS305でCPUは、仮想対象外オブジェクトのそれぞれについて、仮想対象オブジェクトに重なって投影されるか否かを判断する処理をさらに行なう。この処理として、たとえば、CPUはそれぞれの仮想オブジェクトの表示位置および形状の情報に基づいて、カメラ300からの撮影方向を法線とする平面にそれぞれの仮想オブジェクトの画像を投影し、その平面上においてこれらが重なっているか否かを判断する。その判断としては、たとえば、上記平面に投影された仮想対象オブジェクトの半径と仮想対象外オブジェクトの半径との和と上記平面上でのこれらの中心間距離とを比較する。その結果、半径の和が中心間距離よりも大なる場合に、CPUはカメラ300からの撮影画像に基づく位置に表示することで該仮想対象外オブジェクトが仮想対象オブジェクトに重なって投影されると判断し、そうでない場合に重なって投影されないと判断する。そして、変形対象の仮想対象外オブジェクトのうち、重なって投影されると判断されたものについては、その変形において、記憶されている変形の度合いを所定割合で増加させて適用する。   In this case, in step S305, the CPU further performs a process of determining whether each of the virtual non-target objects is projected on the virtual target object. As this processing, for example, the CPU projects an image of each virtual object on a plane whose normal is the shooting direction from the camera 300 based on the display position and shape information of each virtual object. It is determined whether or not these overlap. As the determination, for example, the sum of the radius of the virtual target object projected on the plane and the radius of the non-virtual target object is compared with the distance between the centers on the plane. As a result, when the sum of the radii is larger than the center-to-center distance, the CPU determines that the virtual non-target object is projected onto the virtual target object by displaying it at a position based on the captured image from the camera 300. If this is not the case, it is determined that the images are not projected together. Then, among the non-virtual objects to be deformed, those that are determined to be projected in an overlapping manner are applied by increasing the stored degree of deformation at a predetermined rate in the deformation.

なお、この場合、カメラ300の位置が変化したことが検出された場合、所定の間、この変形の度合いが維持されるようにしてもよい。   In this case, when it is detected that the position of the camera 300 has changed, the degree of deformation may be maintained for a predetermined time.

このような処理が行なわれることで、2次元のディスプレイ400において仮想対象外オブジェクトが仮想対象オブジェクトと重なって表示される場合であっても、ポインタ200を装着したユーザは仮想対象外オブジェクトのポインタ200からの距離をより視覚的に把握しやすくなる。   By performing such processing, even when the virtual non-target object is displayed on the two-dimensional display 400 so as to overlap the virtual target object, the user wearing the pointer 200 has the pointer 200 of the virtual non-target object. It becomes easier to grasp the distance from the camera more visually.

<表示処理例2>
図20は、ポインタ位置と仮想オブジェクトの位置との関係に基づいた表示処理の第2の例を説明する図である。図20を参照して、第2の例では、画像処理統括部として機能する処理装置100のCPUは、ポインタ位置が仮想オブジェクトの表示位置に近づいた場合に、その仮想オブジェクトを仮想対象オブジェクトとし、上記仮想対象オブジェクト以外の仮想オブジェクトを仮想対象外オブジェクトとして、その仮想対象オブジェクトの表示位置とポインタ位置との間の距離に応じて、仮想対象外オブジェクトを仮想対象オブジェクトから遠ざかるように表示位置を移動させる。すなわち、図20(A)に示されるように、指先に装着されたポインタ200が表示されている1つの仮想オブジェクトの表示位置に近づいていると検出された場合に、図20(B)に示されるように、その仮想オブジェクトを仮想対象オブジェクトとし、仮想対象オブジェクトから所定範囲内にある仮想対象外オブジェクトの表示位置を仮想対象オブジェクトから離すように移動させる。
<Display processing example 2>
FIG. 20 is a diagram illustrating a second example of display processing based on the relationship between the pointer position and the position of the virtual object. Referring to FIG. 20, in the second example, when the pointer position approaches the display position of the virtual object, the CPU of processing apparatus 100 functioning as the image processing control unit sets the virtual object as a virtual target object. A virtual object other than the virtual target object is set as a non-virtual target object, and the display position is moved so that the virtual non-target object moves away from the virtual target object according to the distance between the display position of the virtual target object and the pointer position. Let That is, as shown in FIG. 20 (A), when it is detected that the pointer 200 attached to the fingertip is approaching the display position of one displayed virtual object, it is shown in FIG. 20 (B). As described above, the virtual object is set as the virtual target object, and the display position of the non-virtual target object within the predetermined range from the virtual target object is moved away from the virtual target object.

この表示処理を行なうため、仮想オブジェクト−ポインタ間距離判定部106は算出された仮想オブジェクトとポインタ位置との間の距離を一時的に記憶するための図示しないメモリを含む。また、処理対象の仮想オブジェクトを判定するためのしきい値としての基準距離を記憶しておく。そして、仮想オブジェクト−ポインタ間距離判定部106は上記基準距離と比較することで、仮想対象オブジェクトを特定する。   In order to perform this display process, the virtual object-pointer distance determination unit 106 includes a memory (not shown) for temporarily storing the calculated distance between the virtual object and the pointer position. In addition, a reference distance is stored as a threshold value for determining a virtual object to be processed. Then, the virtual object-pointer distance determining unit 106 identifies the virtual target object by comparing with the reference distance.

また、仮想対象外オブジェクト表示データ生成部109は、予め、ポインタ200の位置と仮想対象オブジェクトとの間の距離Dの範囲ごとに、処理対象とする仮想対象外オブジェクトの移動距離を記憶しておく。一例として、ポインタ200の位置と仮想対象オブジェクトとの間の距離Dが小さくなるほど仮想対象外オブジェクトの移動距離が大きくなるような関係が記憶されている。そして、その対応関係に基づいて、仮想対象外オブジェクトに対して規定されている表示位置を更新することで、表示データを生成する。   Further, the virtual non-object display data generation unit 109 stores in advance the movement distance of the virtual non-target object to be processed for each range of the distance D between the position of the pointer 200 and the virtual target object. . As an example, a relationship is stored such that the moving distance of the non-virtual target object increases as the distance D between the position of the pointer 200 and the virtual target object decreases. Then, display data is generated by updating the display position defined for the virtual non-target object based on the correspondence.

図21は、第2の表示処理のための動作の具体例を示すフローチャートである。図21を参照して、ステップS401で画像処理統括部として機能する処理装置100のCPUは、ポインタ位置と仮想オブジェクトの表示位置との間の距離Dを算出する。ステップS401の動作の詳細は図13で説明されたものである。   FIG. 21 is a flowchart illustrating a specific example of the operation for the second display process. Referring to FIG. 21, the CPU of processing apparatus 100 functioning as an image processing control unit in step S401 calculates a distance D between the pointer position and the display position of the virtual object. Details of the operation in step S401 have been described with reference to FIG.

また、ステップS403でCPUは、ポインタ位置から所定範囲内に表示位置のある仮想オブジェクトを処理対象の仮想オブジェクトとして抽出する。そして、ステップS405でCPUは、抽出した処理対象の仮想オブジェクトの中から、仮想対象オブジェクトを特定する。ステップS405での処理の一例として、CPUは、1つの仮想オブジェクトについて、直前の処理によって算出されたポインタ位置と仮想オブジェクトの表示位置との間の距離Dと上記ステップS401で算出された距離Dとを比較し、その差分がしきい値よりも大きく、かつ、ポインタ位置から当該仮想オブジェクトの表示位置へ向かう方向が上記直前の処理のときの方向と同じまたは略同じである場合に、当該仮想オブジェクトを仮想対象オブジェクトと特定する。すなわち、同じ仮想オブジェクトに向けて所定の速度でポインタ200の位置が所定量以上に進んでいる場合に、当該仮想オブジェクトに向けてポインタ200が移動していると判断し、その仮想オブジェクトを仮想対象オブジェクトとする。   In step S403, the CPU extracts a virtual object having a display position within a predetermined range from the pointer position as a virtual object to be processed. In step S405, the CPU specifies a virtual target object from the extracted virtual objects to be processed. As an example of the process in step S405, the CPU determines, for one virtual object, the distance D between the pointer position calculated by the immediately preceding process and the display position of the virtual object, and the distance D calculated in step S401. If the difference is larger than the threshold value and the direction from the pointer position to the display position of the virtual object is the same as or substantially the same as the direction in the immediately preceding process, the virtual object Is identified as a virtual target object. In other words, when the position of the pointer 200 is advanced by a predetermined amount or more toward the same virtual object at a predetermined speed, it is determined that the pointer 200 is moving toward the virtual object, and the virtual object is determined as a virtual object. An object.

CPUは、ステップS403で抽出された処理対象とする仮想オブジェクトのうち、このような方法で特定された仮想対象オブジェクト以外の仮想オブジェクトを仮想対象外オブジェクトと特定し、ステップS407でこれら仮想対象外オブジェクトを仮想対象オブジェクトから離す処理を実行する。具体的には、上記ステップS401で算出されたポインタ位置と仮想対象オブジェクトの表示位置との距離Dに基づいて、処理対象とする仮想対象外オブジェクトについて上述の記憶している対応関係より移動距離を決定して、それぞれの仮想対象外オブジェクトに規定されている表示位置を該移動距離を考慮して更新する。   The CPU identifies virtual objects other than the virtual target object identified by such a method among the virtual objects to be processed extracted in step S403 as non-virtual target objects, and in step S407, these virtual non-target objects. Execute the process of separating from the virtual target object. Specifically, based on the distance D between the pointer position calculated in step S401 and the display position of the virtual target object, the movement distance is determined based on the stored correspondence relationship for the virtual non-target object to be processed. The display position defined for each virtual non-target object is updated in consideration of the movement distance.

なお、ここでの移動は、特定の方向、距離への移動に限定されない。たとえば図20に表わされたように、上方に所定距離移動させるようにしてもよいし、図22に示されているように、下方に所定距離移動させる(落とす)ようにしてもよい。また、他の例として、当該仮想対象外オブジェクトの中心と仮想対象オブジェクトの中心とを結ぶ直線の方向であって、仮想対象オブジェクトから遠い方向に所定距離移動させるようにしてもよい。   The movement here is not limited to movement in a specific direction and distance. For example, as shown in FIG. 20, it may be moved upward by a predetermined distance, or as shown in FIG. 22, it may be moved downward by a predetermined distance (dropped). As another example, it may be moved by a predetermined distance in the direction of a straight line connecting the center of the non-virtual target object and the center of the virtual target object and away from the virtual target object.

この画像を透過性を有してディスプレイ400に表示し、ディスプレイ400を介して視認される実空間に投影させることにより、図20や図22に示されたような表示が実現される。これにより、ポインタ200が向かっている仮想オブジェクトが指定される可能性の高い仮想対象オブジェクトとされ、その仮想対象オブジェクトから所定範囲内にある仮想対象外オブジェクトが仮想対象オブジェクトから離れて表示される。そのため、ポインタ200を装着したユーザは、複数の表示される仮想オブジェクトのポインタ200からの距離を視覚的に把握しやすくなり、ポインタ200が向かう仮想オブジェクトが指定しやすくなる。   By displaying this image on the display 400 with transparency and projecting it to the real space visually recognized through the display 400, the display as shown in FIG. 20 or FIG. 22 is realized. As a result, the virtual object to which the pointer 200 is pointing is set as a virtual target object that is highly likely to be designated, and a virtual non-target object within a predetermined range from the virtual target object is displayed away from the virtual target object. Therefore, the user wearing the pointer 200 can easily visually grasp the distance from the pointer 200 of a plurality of displayed virtual objects, and can easily specify the virtual object to which the pointer 200 is directed.

<変形例1>
なお、第2の表示例においても、第1の表示例と同様に、上記変形例4、5と同様の変形例があってもよい。すなわち、上記変形例4のように、仮想対象外オブジェクトの表示位置とポインタ位置との間の距離に応じた距離で、当該仮想対象外オブジェクトを移動させるようにしてもよい。また、上記変形例5のように、2次元のディスプレイ400上で仮想対象オブジェクトと重なって表示される仮想対象外オブジェクトについて、そうでない仮想対象外オブジェクトよりも移動量を大きくしてもよい。
<Modification 1>
In the second display example, similar to the first and fourth modified examples, there may be modified examples similar to the modified examples 4 and 5. That is, as in Modification 4 above, the virtual non-target object may be moved by a distance corresponding to the distance between the display position of the virtual non-target object and the pointer position. Further, as in the above-described modification example 5, the movement amount of a virtual non-target object displayed on the two-dimensional display 400 so as to overlap with the virtual target object may be larger than that of the non-virtual target object.

具体例として、図23に示されるように、仮想対象外オブジェクトを仮想対象オブジェクトから離すように上方に所定距離移動させる際に、2次元のディスプレイ400上で仮想オブジェクトに重なって投影される仮想対象外オブジェクト(図23(A)の例では手前から2番目、および4番目の仮想オブジェクト)については、重なっていない仮想対象外オブジェクト(図23(A)の例では一番手前、および一番奥の仮想オブジェクト)よりも移動量を大きく移動させてもよい。また、他の例として、図24に示されるように、仮想対象外オブジェクトを仮想対象オブジェクトから離すように下方に所定距離移動させ、さらに、2次元のディスプレイ400上で仮想オブジェクトに重なって投影される仮想対象外オブジェクト(図24(A)の例では手前から2番目、および4番目の仮想オブジェクト)については、重なっていない仮想対象外オブジェクト(図24(A)の例では一番手前、および一番奥の仮想オブジェクト)よりも透明度が高くなるように色彩を変化させてもよい。   As a specific example, as shown in FIG. 23, when moving a non-virtual target object upward by a predetermined distance so as to be separated from the virtual target object, a virtual target projected onto the virtual object on the two-dimensional display 400 is superimposed. For the outside object (the second and fourth virtual objects from the front in the example of FIG. 23A), the non-overlapping virtual non-target objects (the foremost and backmost in the example of FIG. 23A) The movement amount may be larger than that of the virtual object. As another example, as shown in FIG. 24, the virtual non-target object is moved downward by a predetermined distance so as to be separated from the virtual target object, and further projected onto the two-dimensional display 400 so as to overlap the virtual object. Virtual non-target objects (second and fourth virtual objects from the front in the example of FIG. 24A), non-overlapping virtual non-target objects (the frontmost in the example of FIG. 24A), and You may change a color so that transparency may become higher than a backmost virtual object.

なお、この場合の、重なって投影されるか否かを判定する処理は、一例として、上述の処理と同様の処理を採用することができる。また、重なって投影されるか否かの判定は、第2の処理例に従って移動させた後の仮想対象外オブジェクトの表示位置に基づいて行なわれてもよい。   In this case, as a process for determining whether or not the images are projected in an overlapping manner, a process similar to the process described above can be adopted as an example. Further, the determination as to whether or not the images are overlapped may be performed based on the display position of the virtual non-target object after being moved according to the second processing example.

このような処理が行なわれることにより、仮想対象オブジェクトから所定範囲内にある仮想対象外オブジェクトが仮想対象オブジェクトから離れて表示されると共に、2次元のディスプレイ400において仮想対象外オブジェクトが仮想対象オブジェクトに重なって投影される場合であっても、ポインタ200を装着したユーザは仮想対象外オブジェクトのポインタ200からの距離をより視覚的に把握しやすくなる。そのため、ポインタ200が向かう仮想オブジェクトがより指定しやすくなる。   By performing such processing, a virtual non-target object within a predetermined range from the virtual target object is displayed away from the virtual target object, and the virtual non-target object is displayed as a virtual target object on the two-dimensional display 400. Even in the case of overlapping projection, the user wearing the pointer 200 can more easily grasp the distance of the virtual non-target object from the pointer 200 more visually. Therefore, it becomes easier to specify the virtual object to which the pointer 200 is directed.

さらに、第1の表示例と第2の表示例とが組み合わされてもよい。
またさらに、上述の表示処理を、処理装置100に実行させるためのプログラムを提供することもできる。このようなプログラムは、コンピュータに付属するフレキシブルディスク、CD−ROM(Compact Disk-Read Only Memory)、ROM(Read Only Memory)、RAM(Random Access Memory)およびメモリカードなどのコンピュータ読取り可能な記録媒体にて記録させて、プログラム製品として提供することもできる。あるいは、コンピュータに内蔵するハードディスクなどの記録媒体にて記録させて、プログラムを提供することもできる。また、ネットワークを介したダウンロードによって、プログラムを提供することもできる。
Furthermore, the first display example and the second display example may be combined.
Furthermore, a program for causing the processing device 100 to execute the above-described display processing can be provided. Such a program is stored in a computer-readable recording medium such as a flexible disk attached to the computer, a CD-ROM (Compact Disk-Read Only Memory), a ROM (Read Only Memory), a RAM (Random Access Memory), and a memory card. And can be provided as a program product. Alternatively, the program can be provided by being recorded on a recording medium such as a hard disk built in the computer. A program can also be provided by downloading via a network.

なお、本発明にかかるプログラムは、コンピュータのオペレーティングシステム(OS)の一部として提供されるプログラムモジュールのうち、必要なモジュールを所定の配列で所定のタイミングで呼出して処理を実行させるものであってもよい。その場合、プログラム自体には上記モジュールが含まれずOSと協働して処理が実行される。このようなモジュールを含まないプログラムも、本発明にかかるプログラムに含まれ得る。   The program according to the present invention is a program module that is provided as a part of a computer operating system (OS) and calls necessary modules in a predetermined arrangement at a predetermined timing to execute processing. Also good. In that case, the program itself does not include the module, and the process is executed in cooperation with the OS. A program that does not include such a module can also be included in the program according to the present invention.

また、本発明にかかるプログラムは他のプログラムの一部に組込まれて提供されるものであってもよい。その場合にも、プログラム自体には上記他のプログラムに含まれるモジュールが含まれず、他のプログラムと協働して処理が実行される。このような他のプログラムに組込まれたプログラムも、本発明にかかるプログラムに含まれ得る。   The program according to the present invention may be provided by being incorporated in a part of another program. Even in this case, the program itself does not include the module included in the other program, and the process is executed in cooperation with the other program. Such a program incorporated in another program can also be included in the program according to the present invention.

提供されるプログラム製品は、ハードディスクなどのプログラム格納部にインストールされて実行される。なお、プログラム製品は、プログラム自体と、プログラムが記録された記録媒体とを含む。   The provided program product is installed in a program storage unit such as a hard disk and executed. The program product includes the program itself and a recording medium on which the program is recorded.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

100 処理装置、101A カメラ画像入力部、101B ポインタデータ入力部、101C 仮想オブジェクト情報入力部、102 ポインタオブジェクト抽出部、103 画像認識処理部、104 ポインタ形状記憶部、105 ポインタ表示データ生成部、106 仮想オブジェクト−ポインタ間距離判定部、107 仮想対象外オブジェクト−ポインタ間距離判定部、108 仮想対象外オブジェクト座標記憶部、109 仮想対象外オブジェクト表示データ生成部、110 仮想対象外オブジェクト形状記憶部、111 表示処理部、200 ポインタ、201 位置検出センサ、202 加速度センサ、203 方向性検知センサ、204 CPU、205 通信I/F、300 カメラ、400,401 ディスプレイ、402 CPU、403 通信I/F、500 サーバ、600 携帯端末、1021 ポインタ抽出部、1022 仮想オブジェクト抽出部、1023 仮想対象外オブジェクト抽出部、1031 ポインタ座標検出部、1032 仮想オブジェクト表示領域検出部、1033 仮想対象外オブジェクト表示領域検出部。   100 processing apparatus, 101A camera image input unit, 101B pointer data input unit, 101C virtual object information input unit, 102 pointer object extraction unit, 103 image recognition processing unit, 104 pointer shape storage unit, 105 pointer display data generation unit, 106 virtual Object-pointer distance determination unit, 107 Virtual target object-pointer distance determination unit, 108 Virtual target object coordinate storage unit, 109 Virtual target object display data generation unit, 110 Virtual target object shape storage unit, 111 Display Processing unit, 200 pointer, 201 position detection sensor, 202 acceleration sensor, 203 direction detection sensor, 204 CPU, 205 communication I / F, 300 camera, 400, 401 display, 402 CPU, 4 03 communication I / F, 500 server, 600 portable terminal, 1021 pointer extraction unit, 1022 virtual object extraction unit, 1023 virtual non-target object extraction unit, 1031 pointer coordinate detection unit, 1032 virtual object display area detection unit, 1033 virtual non-target Object display area detector.

Claims (13)

仮想オブジェクトの画像を表示するための表示システムであって、
カメラと、
ディスプレイと、
表示処理装置とを備え、
前記表示処理装置は、
前記仮想オブジェクトに関する情報として、当該仮想オブジェクトを3次元で表示させるための画像情報と、撮影された空間に対して設定された3次元の座標系で表わされた当該仮想オブジェクトの表示位置と、当該仮想オブジェクトが選択されることによって実行される動作とを規定する情報を記憶装置から取得するための取得手段と、
前記カメラによる撮影画像に対して前記3次元の座標系を設定し、前記仮想オブジェクトに対して規定された前記表示位置に前記仮想オブジェクトの画像を表示させるための表示画像を生成し、前記ディスプレイで表示させる処理を実行するための処理手段と、
ユーザによって指定された前記3次元の座標系における位置を検出するための検出手段とを含み、
前記処理手段は、前記撮影画像における仮想オブジェクトについて規定された前記表示位置と前記指定された位置との関係に基づいて前記仮想オブジェクトのうちの1つの仮想オブジェクトを仮想対象オブジェクトと特定し、前記仮想オブジェクトのうちの前記仮想対象オブジェクト以外の仮想オブジェクトを仮想対象外オブジェクトとして、前記仮想対象外オブジェクトの画像を変化させる処理を実行する、表示システム。
A display system for displaying an image of a virtual object,
A camera,
Display,
A display processing device,
The display processing device includes:
As information about the virtual object, image information for displaying the virtual object in three dimensions, a display position of the virtual object represented in a three-dimensional coordinate system set for the captured space, An acquisition means for acquiring from the storage device information defining an action to be executed when the virtual object is selected;
A three-dimensional coordinate system is set for an image captured by the camera, a display image for displaying an image of the virtual object at the display position defined for the virtual object is generated, and the display Processing means for executing processing to be displayed;
Detecting means for detecting a position in the three-dimensional coordinate system designated by a user,
The processing means identifies one virtual object of the virtual objects as a virtual target object based on a relationship between the display position specified for the virtual object in the captured image and the designated position, and the virtual object A display system that executes a process of changing an image of a virtual non-target object by setting a virtual object other than the virtual target object among the objects as a virtual non-target object.
前記変化させる処理は、前記仮想対象外オブジェクトの画像を縮小する処理、前記仮想対象外オブジェクトの画像の形状を変化させる処理、前記仮想対象外オブジェクトの画像の色彩を変化させる処理、前記仮想対象外オブジェクトの画像の透明度を変化させる処理、および前記仮想対象外オブジェクトの画像の表示位置を変化させる処理のうちの少なくとも1つである、請求項1に記載の表示システム。   The changing process includes a process of reducing an image of the virtual non-target object, a process of changing a shape of the image of the virtual non-target object, a process of changing a color of the image of the virtual non-target object, and the virtual non-target object. The display system according to claim 1, wherein the display system is at least one of a process of changing a transparency of an image of an object and a process of changing a display position of an image of the virtual non-target object. 前記処理手段は、前記撮影画像における仮想オブジェクトについて規定された前記表示位置と前記指定された位置との間の距離が、予め規定されている第1の基準距離よりも小さい仮想オブジェクトを前記仮想対象オブジェクトと特定する、請求項1または2に記載の表示システム。   The processing means treats a virtual object whose distance between the display position specified for the virtual object in the captured image and the specified position is smaller than a first reference distance specified in advance as the virtual target. The display system according to claim 1, wherein the display system identifies the object. 前記処理手段は、前記仮想対象外オブジェクトの画像を、前記指定された位置と前記仮想対象オブジェクトとの間の距離に応じて縮小する、請求項3に記載の表示システム。   The display system according to claim 3, wherein the processing unit reduces the image of the virtual non-target object according to a distance between the designated position and the virtual target object. 前記処理手段は、前記ユーザによって指定される位置の変化量に基づいて前記指定される位置が向かう方向に表示位置が該当している仮想オブジェクトを前記仮想対象オブジェクトと特定する、請求項1または2に記載の表示システム。   The processing means identifies, as the virtual target object, a virtual object whose display position corresponds to a direction in which the designated position is directed based on a change amount of the position designated by the user. Display system as described in. 前記処理手段は、前記仮想対象外オブジェクトの表示位置を、前記指定された位置と前記仮想対象オブジェクトとの間の距離に応じて、前記仮想対象オブジェクトから遠くなる方向に変化させる、請求項5に記載の表示システム。   The processing means changes the display position of the non-virtual target object in a direction away from the virtual target object according to a distance between the designated position and the virtual target object. Display system described. 前記処理手段は、前記カメラの位置と前記仮想オブジェクトとの位置関係に基づいて、前記仮想対象オブジェクトに重なって表示される前記仮想対象外オブジェクトの画像の変化を、重なって表示されない前記仮想対象外オブジェクトの画像の変化よりも大きく変化させる、請求項1〜6のいずれかに記載の表示システム。   The processing means, based on the positional relationship between the position of the camera and the virtual object, changes in the image of the virtual non-target object that is displayed overlapping the virtual target object. The display system according to claim 1, wherein the display system is changed more greatly than a change in the image of the object. 前記処理手段は、前記カメラの位置の変化が検出されると、前記変化前の前記カメラの位置に応じて前記仮想対象オブジェクトに重なって表示されると特定された前記仮想対象外オブジェクトの画像の変化を、前記カメラの位置の移動後も維持する、請求項7に記載の表示システム。   When the change in the position of the camera is detected, the processing unit is configured to display an image of the virtual non-target object specified to be displayed so as to overlap the virtual target object according to the position of the camera before the change. The display system of claim 7, wherein the change is maintained after the camera position is moved. 前記処理手段は、前記撮影画像における仮想オブジェクトについて規定された前記表示位置と前記指定された位置との間の距離が、前記第1の基準距離よりも大きい第2の基準距離よりも小さい仮想オブジェクトであって、前記仮想対象オブジェクトと特定された仮想オブジェクト以外の仮想オブジェクトを前記仮想対象外オブジェクトと特定する、請求項1〜8のいずれかに記載の表示システム。   The processing means is a virtual object in which a distance between the display position specified for the virtual object in the captured image and the designated position is smaller than a second reference distance that is larger than the first reference distance. The display system according to claim 1, wherein a virtual object other than the virtual object identified as the virtual target object is identified as the non-virtual target object. 前記ディスプレイは、表示面と逆側の面からの光を透過し、前記表示処理手段で生成された前記表示画像を、前記表示面に透過性を有して表示する、請求項1〜9のいずれかに記載の表示システム。   The said display permeate | transmits the light from the surface on the opposite side to a display surface, and displays the said display image produced | generated by the said display process means on the said display surface with transparency. A display system according to any one of the above. 仮想オブジェクトの画像をディスプレイに表示させるための表示処理装置であって、
前記撮影画像の入力を受付けるための入力手段と、
前記仮想オブジェクトに関する情報として、当該仮想オブジェクトを3次元で表示させるための画像情報と、撮影された空間に対して設定された3次元の座標系で表わされた当該仮想オブジェクトの表示位置と、当該仮想オブジェクトが選択されることによって実行される動作とを規定する情報を記憶装置から取得するための取得手段と、
前記撮影画像に対して前記3次元の座標系を設定し、前記仮想オブジェクトに対して規定された前記表示位置に前記仮想オブジェクトの画像を表示させるための表示画像を生成し、前記ディスプレイで表示させる処理を実行するための処理手段と、
ユーザによって指定された前記3次元の座標系における位置を検出するための検出手段とを含み、
前記処理手段は、前記撮影画像における仮想オブジェクトについて規定された前記表示位置と前記指定された位置との関係に基づいて前記仮想オブジェクトのうちの1つの仮想オブジェクトを仮想対象オブジェクトと特定し、前記仮想オブジェクトのうちの前記仮想対象オブジェクト以外の仮想オブジェクトを仮想対象外オブジェクトとして、前記仮想対象外オブジェクトの画像を変化させる処理を実行する、表示処理装置。
A display processing device for displaying an image of a virtual object on a display,
Input means for receiving input of the captured image;
As information about the virtual object, image information for displaying the virtual object in three dimensions, a display position of the virtual object represented in a three-dimensional coordinate system set for the captured space, An acquisition means for acquiring from the storage device information defining an action to be executed when the virtual object is selected;
A three-dimensional coordinate system is set for the photographed image, and a display image for displaying the image of the virtual object at the display position defined for the virtual object is generated and displayed on the display. Processing means for executing processing;
Detecting means for detecting a position in the three-dimensional coordinate system designated by a user,
The processing means identifies one virtual object of the virtual objects as a virtual target object based on a relationship between the display position specified for the virtual object in the captured image and the designated position, and the virtual object A display processing apparatus that executes a process of changing an image of a virtual non-target object using a virtual object other than the virtual target object as a virtual non-target object.
表示処理装置において、仮想オブジェクトの画像をディスプレイに表示させる方法であって、
カメラから撮影画像の入力を受付けるステップと、
前記撮影画像に対して前記3次元の座標系を設定するステップと、
ユーザによって指定された前記3次元の座標系における位置を検出するステップと、
前記仮想オブジェクトに関する情報として、当該仮想オブジェクトを3次元で表示させるための画像情報と、撮影された空間に対して設定された3次元の座標系で表わされた当該仮想オブジェクトの表示位置と、当該仮想オブジェクトが選択されることによって実行される動作とを規定する情報を記憶装置から取得するステップと、
前記撮影画像における仮想オブジェクトについて規定された前記表示位置と前記指定された位置との関係に基づいて前記仮想オブジェクトのうちの1つの仮想オブジェクトを仮想対象オブジェクトと特定し、前記仮想オブジェクトのうちの前記仮想対象オブジェクト以外の仮想オブジェクトを仮想対象外オブジェクトとして、前記仮想対象外オブジェクトの画像を変化させるステップとを備える、表示方法。
In a display processing apparatus, a method for displaying an image of a virtual object on a display,
A step of receiving input of a photographed image from the camera;
Setting the three-dimensional coordinate system for the captured image;
Detecting a position in the three-dimensional coordinate system specified by a user;
As information about the virtual object, image information for displaying the virtual object in three dimensions, a display position of the virtual object represented in a three-dimensional coordinate system set for the captured space, Obtaining from the storage device information defining an action to be executed by selecting the virtual object;
One virtual object of the virtual objects is identified as a virtual target object based on the relationship between the display position specified for the virtual object in the captured image and the specified position, and the virtual object And a step of changing an image of the virtual non-target object using a virtual object other than the virtual target object as a virtual non-target object.
表示処理装置に、仮想オブジェクトの画像をディスプレイに表示させる処理を実行させるためのプログラムであって、
カメラから撮影画像の入力を受付けるステップと、
前記撮影画像に対して前記3次元の座標系を設定するステップと、
ユーザによって指定された前記3次元の座標系における位置を検出するステップと、
前記仮想オブジェクトに関する情報として、当該仮想オブジェクトを3次元で表示させるための画像情報と、撮影された空間に対して設定された3次元の座標系で表わされた当該仮想オブジェクトの表示位置と、当該仮想オブジェクトが選択されることによって実行される動作とを規定する情報を記憶装置から取得するステップと、
前記撮影画像における仮想オブジェクトについて規定された前記表示位置と前記指定された位置との関係に基づいて前記仮想オブジェクトのうちの1つの仮想オブジェクトを仮想対象オブジェクトと特定し、前記仮想オブジェクトのうちの前記仮想対象オブジェクト以外の仮想オブジェクトを仮想対象外オブジェクトとして、前記仮想対象外オブジェクトの画像を変化させるステップとを前記表示処理装置に実行させる、表示プログラム。
A program for causing a display processing device to execute a process of displaying an image of a virtual object on a display,
A step of receiving input of a photographed image from the camera;
Setting the three-dimensional coordinate system for the captured image;
Detecting a position in the three-dimensional coordinate system specified by a user;
As information about the virtual object, image information for displaying the virtual object in three dimensions, a display position of the virtual object represented in a three-dimensional coordinate system set for the captured space, Obtaining from the storage device information defining an action to be executed by selecting the virtual object;
One virtual object of the virtual objects is identified as a virtual target object based on the relationship between the display position specified for the virtual object in the captured image and the specified position, and the virtual object A display program that causes the display processing device to execute a step of changing an image of the virtual non-target object using a virtual object other than the virtual target object as a virtual non-target object.
JP2011016807A 2011-01-28 2011-01-28 Display system, display processing apparatus, display method, and display program Expired - Fee Related JP5565331B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011016807A JP5565331B2 (en) 2011-01-28 2011-01-28 Display system, display processing apparatus, display method, and display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011016807A JP5565331B2 (en) 2011-01-28 2011-01-28 Display system, display processing apparatus, display method, and display program

Publications (2)

Publication Number Publication Date
JP2012155678A true JP2012155678A (en) 2012-08-16
JP5565331B2 JP5565331B2 (en) 2014-08-06

Family

ID=46837308

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011016807A Expired - Fee Related JP5565331B2 (en) 2011-01-28 2011-01-28 Display system, display processing apparatus, display method, and display program

Country Status (1)

Country Link
JP (1) JP5565331B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014235704A (en) * 2013-06-05 2014-12-15 富士機械製造株式会社 Board production assist system
JP2016024690A (en) * 2014-07-22 2016-02-08 Necパーソナルコンピュータ株式会社 Movement recognition device, movement recognition method and program
JPWO2014147858A1 (en) * 2013-03-19 2017-02-16 Necソリューションイノベータ株式会社 3D unlock device, 3D unlock method and program
KR20180064748A (en) * 2016-12-06 2018-06-15 한국과학기술연구원 Method, program and apparatus for selecting overlapping virtual objects using spatial relatio nship information
JP2021128795A (en) * 2016-03-31 2021-09-02 マジック リープ, インコーポレイテッドMagic Leap, Inc. Interactions with 3d virtual objects using poses and multiple-dof controllers
WO2023216526A1 (en) * 2022-05-10 2023-11-16 北京字跳网络技术有限公司 Calibration information determination method and apparatus, and electronic device
WO2024016626A1 (en) * 2022-07-20 2024-01-25 网易(杭州)网络有限公司 Position information display method and apparatus, and electronic device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10124361A (en) * 1996-10-23 1998-05-15 Nikon Corp Picture file editing device, and medium recorded with program for realizing the device
JP2002092647A (en) * 2000-09-19 2002-03-29 Olympus Optical Co Ltd Information presentation system and model error detection system
JP2005322071A (en) * 2004-05-10 2005-11-17 Takenaka Komuten Co Ltd Indication operation recognition device, indication operation recognition method and indication operation recognition program
JP2007293429A (en) * 2006-04-21 2007-11-08 Sony Computer Entertainment Inc Image browsing device, control method and program of computer
JP2010238098A (en) * 2009-03-31 2010-10-21 Ntt Docomo Inc Terminal device, information presentation system, and terminal screen display method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10124361A (en) * 1996-10-23 1998-05-15 Nikon Corp Picture file editing device, and medium recorded with program for realizing the device
JP2002092647A (en) * 2000-09-19 2002-03-29 Olympus Optical Co Ltd Information presentation system and model error detection system
JP2005322071A (en) * 2004-05-10 2005-11-17 Takenaka Komuten Co Ltd Indication operation recognition device, indication operation recognition method and indication operation recognition program
JP2007293429A (en) * 2006-04-21 2007-11-08 Sony Computer Entertainment Inc Image browsing device, control method and program of computer
JP2010238098A (en) * 2009-03-31 2010-10-21 Ntt Docomo Inc Terminal device, information presentation system, and terminal screen display method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2014147858A1 (en) * 2013-03-19 2017-02-16 Necソリューションイノベータ株式会社 3D unlock device, 3D unlock method and program
JP2014235704A (en) * 2013-06-05 2014-12-15 富士機械製造株式会社 Board production assist system
JP2016024690A (en) * 2014-07-22 2016-02-08 Necパーソナルコンピュータ株式会社 Movement recognition device, movement recognition method and program
JP2021128795A (en) * 2016-03-31 2021-09-02 マジック リープ, インコーポレイテッドMagic Leap, Inc. Interactions with 3d virtual objects using poses and multiple-dof controllers
JP7209041B2 (en) 2016-03-31 2023-01-19 マジック リープ, インコーポレイテッド Interacting with 3D Virtual Objects Using Pose and Multiple DOF Controllers
US11657579B2 (en) 2016-03-31 2023-05-23 Magic Leap, Inc. Interactions with 3D virtual objects using poses and multiple-DOF controllers
KR20180064748A (en) * 2016-12-06 2018-06-15 한국과학기술연구원 Method, program and apparatus for selecting overlapping virtual objects using spatial relatio nship information
KR101991794B1 (en) * 2016-12-06 2019-06-25 한국과학기술연구원 Method, program and apparatus for selecting overlapping virtual objects using spatial relatio nship information
WO2023216526A1 (en) * 2022-05-10 2023-11-16 北京字跳网络技术有限公司 Calibration information determination method and apparatus, and electronic device
WO2024016626A1 (en) * 2022-07-20 2024-01-25 网易(杭州)网络有限公司 Position information display method and apparatus, and electronic device

Also Published As

Publication number Publication date
JP5565331B2 (en) 2014-08-06

Similar Documents

Publication Publication Date Title
JP5472056B2 (en) Display system, display processing apparatus, display method, and display program
JP5565331B2 (en) Display system, display processing apparatus, display method, and display program
JP5936155B2 (en) 3D user interface device and 3D operation method
US9651782B2 (en) Wearable tracking device
JP6057396B2 (en) 3D user interface device and 3D operation processing method
KR102222974B1 (en) Holographic snap grid
JP5762892B2 (en) Information display system, information display method, and information display program
JP5724543B2 (en) Terminal device, object control method, and program
JP5966510B2 (en) Information processing system
JP5871345B2 (en) 3D user interface device and 3D operation method
CN105934775B (en) Method and system for constructing virtual images anchored on real-world objects
JP6618681B2 (en) Information processing apparatus, control method and program therefor, and information processing system
CN110363061B (en) Computer readable medium, method for training object detection algorithm and display device
JPWO2016203792A1 (en) Information processing apparatus, information processing method, and program
CN107646109B (en) Managing feature data for environment mapping on an electronic device
JP2021520577A (en) Image processing methods and devices, electronic devices and storage media
CN115039166A (en) Augmented reality map management
JP2013050883A (en) Information processing program, information processing system, information processor, and information processing method
KR20120017783A (en) Method and apparatus for presenting location information on augmented reality
CN111083463A (en) Virtual content display method and device, terminal equipment and display system
JP2012233963A (en) Projection system, projection device, projection method, and control program
JP2016122392A (en) Information processing apparatus, information processing system, control method and program of the same
JP2015118442A (en) Information processor, information processing method, and program
KR20180120456A (en) Apparatus for providing virtual reality contents based on panoramic image and method for the same
JP6021568B2 (en) Image processing program, image processing apparatus, image processing system, and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130812

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140520

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140602

R150 Certificate of patent or registration of utility model

Ref document number: 5565331

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees