JP5350427B2 - Image processing apparatus, image processing apparatus control method, and program - Google Patents

Image processing apparatus, image processing apparatus control method, and program Download PDF

Info

Publication number
JP5350427B2
JP5350427B2 JP2011080847A JP2011080847A JP5350427B2 JP 5350427 B2 JP5350427 B2 JP 5350427B2 JP 2011080847 A JP2011080847 A JP 2011080847A JP 2011080847 A JP2011080847 A JP 2011080847A JP 5350427 B2 JP5350427 B2 JP 5350427B2
Authority
JP
Japan
Prior art keywords
real space
space image
user
image
tank
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011080847A
Other languages
Japanese (ja)
Other versions
JP2012216074A (en
Inventor
泰 川崎
健 山口
隆司 山口
貴樹 稲住
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2011080847A priority Critical patent/JP5350427B2/en
Publication of JP2012216074A publication Critical patent/JP2012216074A/en
Application granted granted Critical
Publication of JP5350427B2 publication Critical patent/JP5350427B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To support operation by a user to which augmented reality is provided. <P>SOLUTION: Display control means (74) aligns and combines a real space image (62) and a virtual space image (64) to display the combined image on a screen (60). Movement control means (78) moves an operation target (52) on the basis of a basic direction corresponding to direction indication operation performed by a user. Determination means (80) determines whether an imaging range indicated by the real space image (62) is changed. When the imaging range indicated by the real space image (62) is determined to be changed and the direction indication operation is performed in a predetermined period, the movement control means (78) changes the association between the direction indication operation and the basic direction on the basis of the content of the change in the imaging range indicated by the real space image (62) and moves the operation target (52) on the basis of the changed association and the direction indication operation performed in the predetermined period. <P>COPYRIGHT: (C)2013,JPO&amp;INPIT

Description

本発明は、画像処理装置、画像処理装置の制御方法、及びプログラムに関する。   The present invention relates to an image processing apparatus, a control method for the image processing apparatus, and a program.

従来、現実空間をカメラで撮影して得られる画像と、仮想空間を所与の視点から見た画像と、を重畳させて画面に表示させることによって、ユーザに拡張現実(AR:Augmented Reality)を提供する技術が知られている。   Conventionally, augmented reality (AR) is displayed to the user by superimposing an image obtained by photographing a real space with a camera and an image obtained by viewing the virtual space from a given viewpoint on the screen. The technology to provide is known.

例えば、特許文献1及び特許文献2には、現実空間に配置されたマーカをカメラで撮影することによって、仮想空間に配置されるオブジェクトの表示位置等を決定する技術が記載されている。このような技術においては、仮想空間に配置されたユーザの操作対象(例えば、車等)が現実空間内を移動するような気分を、ユーザが味わうことができる。   For example, Patent Literature 1 and Patent Literature 2 describe a technique for determining a display position or the like of an object placed in a virtual space by photographing a marker placed in a real space with a camera. In such a technique, the user can feel that the user's operation target (for example, a car) arranged in the virtual space moves in the real space.

特開2006−72903号公報JP 2006-72903 A 特開2010−170316号公報JP 2010-170316 A

上記のような拡張現実の技術においては、ユーザがカメラを動かして現実空間の撮影範囲を変化させると、この変化に伴って仮想空間の視野も変化する。ユーザは、現実空間の撮影範囲を変化させつつ操作対象の操作を行う。ユーザがこれら2つの操作を同時に行うことは難しく、操作対象がユーザの意図しない方向に進んでしまう可能性がある。   In the augmented reality technology as described above, when the user moves the camera and changes the shooting range of the real space, the visual field of the virtual space also changes with this change. The user operates the operation target while changing the shooting range in the real space. It is difficult for the user to perform these two operations at the same time, and there is a possibility that the operation target advances in a direction not intended by the user.

本発明は上記課題に鑑みてなされたものであって、その目的は、拡張現実が提供されているユーザの操作補助をすることが可能な画像処理装置、画像処理装置の制御方法、及びプログラムを提供することにある。   The present invention has been made in view of the above problems, and an object thereof is to provide an image processing apparatus capable of assisting a user who is provided with augmented reality, a control method for the image processing apparatus, and a program. It is to provide.

上記課題を解決するために、本発明に係る画像処理装置は、ユーザの操作により撮影範囲が変化する撮影手段と、前記撮影手段が現実空間を撮影することによって生成される現実空間画像と、前記撮影範囲に対応する視野が設定された視点から前記ユーザの操作対象が配置された仮想空間を見た様子を示す仮想空間画像と、に関する位置合わせ及び合成をして表示画面に表示させる表示制御手段と、前記ユーザが前記操作対象の方向指示操作を行うための操作手段と、前記ユーザにより行われた前記方向指示操作に対応する基本方向に基づいて前記操作対象を移動させる移動制御手段と、前記現実空間画像が示す前記撮影範囲が変化したか否かを判定する判定手段と、を含み、前記移動制御手段は、前記現実空間画像が示す前記撮影範囲が変化したと判定され、所定期間内に前記方向指示操作が行われた場合、前記現実空間画像が示す前記撮影範囲の変化内容に基づいて前記方向指示操作と前記基本方向との対応付けを変更し、当該変更後の対応付けと前記所定期間内に行われた方向指示操作とに基づいて前記操作対象を移動させる、ことを特徴とする。   In order to solve the above problems, an image processing apparatus according to the present invention includes a photographing unit whose photographing range is changed by a user operation, a real space image generated by photographing the real space by the photographing unit, Display control means for aligning and synthesizing a virtual space image showing a view of the virtual space where the user's operation target is arranged from a viewpoint with a field of view corresponding to the shooting range and displaying the virtual space image on the display screen And an operation means for the user to perform a direction instruction operation of the operation object, a movement control means for moving the operation object based on a basic direction corresponding to the direction instruction operation performed by the user, Determining means for determining whether or not the shooting range indicated by the real space image has changed, wherein the movement control means changes the shooting range indicated by the real space image. When the direction instruction operation is performed within a predetermined period, the association between the direction instruction operation and the basic direction is changed based on the change content of the shooting range indicated by the real space image, The operation target is moved based on the association after the change and the direction instruction operation performed within the predetermined period.

本発明に係る画像処理装置の制御方法は、ユーザの操作により撮影範囲が変化する撮影手段が現実空間を撮影することによって生成される現実空間画像と、前記撮影範囲に対応する視野が設定された視点から前記ユーザの操作対象が配置された仮想空間を見た様子を示す仮想空間画像と、に関する位置合わせ及び合成をして表示画面に表示させる表示制御ステップと、前記ユーザが前記操作対象の方向指示操作を行うための操作手段から前記ユーザにより行われた前記方向指示操作に対応する基本方向に基づいて前記操作対象を移動させる移動制御ステップと、前記現実空間画像が示す前記撮影範囲が変化したか否かを判定する判定ステップと、を含み、前記移動制御ステップにおいては、前記現実空間画像が示す前記撮影範囲が変化したと判定され、所定期間内に前記方向指示操作が行われた場合、前記現実空間画像が示す前記撮影範囲の変化内容に基づいて前記方向指示操作と前記基本方向との対応付けを変更し、当該変更後の対応付けと前記所定期間内に行われた方向指示操作とに基づいて前記操作対象を移動させる、ことを特徴とする。   According to the control method of the image processing apparatus according to the present invention, a real space image generated by photographing a real space by a photographing unit whose photographing range is changed by a user operation, and a field of view corresponding to the photographing range are set. A display control step of aligning and synthesizing the virtual space image showing a view of the virtual space in which the operation target of the user is viewed from a viewpoint and displaying the virtual space on the display screen; and a direction of the operation target by the user The movement control step for moving the operation target based on the basic direction corresponding to the direction instruction operation performed by the user from the operation means for performing the instruction operation, and the photographing range indicated by the real space image has changed. A determination step of determining whether or not the shooting range indicated by the real space image has changed in the movement control step. When the direction instruction operation is performed within a predetermined period, the association between the direction instruction operation and the basic direction is changed based on the change content of the shooting range indicated by the real space image, and the change The operation target is moved based on a later association and a direction instruction operation performed within the predetermined period.

本発明に係るプログラムは、ユーザの操作により撮影範囲が変化する撮影手段、前記撮影手段が現実空間を撮影することによって生成される現実空間画像と、前記撮影範囲に対応する視野が設定された視点から前記ユーザの操作対象が配置された仮想空間を見た様子を示す仮想空間画像と、に関する位置合わせ及び合成をして表示画面に表示させる表示制御手段、前記ユーザが前記操作対象の方向指示操作を行うための操作手段、前記ユーザにより行われた前記方向指示操作に対応する基本方向に基づいて前記操作対象を移動させる移動制御手段、前記現実空間画像が示す前記撮影範囲が変化したか否かを判定する判定手段、を含み、前記移動制御手段は、前記現実空間画像が示す前記撮影範囲が変化したと判定され、所定期間内に前記方向指示操作が行われた場合、前記現実空間画像が示す前記撮影範囲の変化内容に基づいて前記方向指示操作と前記基本方向との対応付けを変更し、当該変更後の対応付けと前記所定期間内に行われた方向指示操作とに基づいて前記操作対象を移動させる、ことを特徴とする画像処理装置としてコンピュータを機能させる。   The program according to the present invention includes a photographing unit whose photographing range is changed by a user's operation, a real space image generated by photographing the real space by the photographing unit, and a viewpoint in which a field of view corresponding to the photographing range is set. Display control means for aligning and synthesizing the virtual space image showing a view of the virtual space in which the user's operation target is arranged and displaying it on the display screen; Operation means for performing the movement, movement control means for moving the operation target based on a basic direction corresponding to the direction instruction operation performed by the user, whether or not the shooting range indicated by the real space image has changed Determination means for determining, the movement control means is determined that the shooting range indicated by the real space image has changed, and the direction within a predetermined period When the display operation is performed, the association between the direction instruction operation and the basic direction is changed based on the change content of the shooting range indicated by the real space image, and the association after the change is performed within the predetermined period. The computer is caused to function as an image processing apparatus that moves the operation target based on the direction instruction operation performed in step (b).

また、本発明に係る情報記憶媒体は、上記プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体である。   An information storage medium according to the present invention is a computer-readable information storage medium storing the above program.

本発明によれば、拡張現実が提供されているユーザの操作補助をすることが可能になる。   According to the present invention, it is possible to assist a user who is provided with augmented reality.

また、本発明の一態様では、前記移動制御手段は、前記現実空間における前記現実空間画像が示す前記撮影範囲と、前記仮想空間における前記操作対象の位置と、の位置関係の変化が所定の条件を満たす場合、前記方向指示操作と前記基本方向との対応付けを変更する、ことを特徴とする。   In the aspect of the invention, the movement control unit may be configured such that a change in a positional relationship between the shooting range indicated by the real space image in the real space and the position of the operation target in the virtual space is a predetermined condition. If the condition is satisfied, the association between the direction instruction operation and the basic direction is changed.

また、本発明の一態様では、前記移動制御手段は、前記方向指示操作と、前記仮想空間における前記視点の視点座標系とは異なる座標系で示される前記基本方向と、の対応付けを変更する、ことを特徴とする。   In the aspect of the invention, the movement control unit may change a correspondence between the direction instruction operation and the basic direction indicated by a coordinate system different from the viewpoint coordinate system of the viewpoint in the virtual space. It is characterized by that.

また、本発明の一態様では、前記移動制御手段は、前記所定期間内に行われた前記方向指示操作に対応する前記基本方向に基づいて定まる前記操作対象の移動方向と、前記現実空間画像が示す前記撮影範囲の変化方向と、のずれを判定する手段と、前記ずれが基準範囲である場合、前記ユーザにより行われた前記方向指示操作に対応する基本方向に基づいて前記操作対象を移動させる手段と、前記ずれが基準範囲でない場合、前記現実空間画像が示す前記撮影範囲の変化内容に基づいて前記方向指示操作と前記基本方向との対応付けを変更し、当該変更後の対応付けと前記所定期間内に行われた方向指示操作とに基づいて前記操作対象を移動させる手段と、を含むことを特徴とする。   In one aspect of the present invention, the movement control means includes the movement direction of the operation target determined based on the basic direction corresponding to the direction instruction operation performed within the predetermined period, and the real space image. Means for determining a deviation from the change direction of the photographing range shown, and when the deviation is a reference range, the operation target is moved based on a basic direction corresponding to the direction indicating operation performed by the user. And when the deviation is not a reference range, the association between the direction instruction operation and the basic direction is changed based on the change content of the shooting range indicated by the real space image, and the association after the change and the And a means for moving the operation object based on a direction instruction operation performed within a predetermined period.

本実施形態に係る携帯端末のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the portable terminal which concerns on this embodiment. ユーザが拡張現実を利用したゲームをプレイする様子を示す図である。It is a figure which shows a mode that a user plays the game using an augmented reality. 仮想空間の一例を示す図である。It is a figure which shows an example of virtual space. 表示部に表示されるゲーム画面の一例を示す図である。It is a figure which shows an example of the game screen displayed on a display part. 方向指示操作に対応付けられた基本方向を説明するための図である。It is a figure for demonstrating the basic direction matched with direction instruction | indication operation. 携帯端末で実現される機能を示す機能ブロック図である。It is a functional block diagram which shows the function implement | achieved by a portable terminal. マーカデータのデータ格納例を示す図である。It is a figure which shows the example of data storage of marker data. 表示制御部による位置合わせの方法を説明するための図である。It is a figure for demonstrating the method of the alignment by a display control part. 撮影範囲の変化方向が取得される処理を説明するための図である。It is a figure for demonstrating the process by which the change direction of an imaging | photography range is acquired. 変更された方向指示操作と基本方向との対応付けを説明するための図である。It is a figure for demonstrating matching with the changed direction instruction | indication operation and a basic direction. 方向指示操作と基本方向との対応付けが変更された場合に戦車の位置が制御される様子を示す図である。It is a figure which shows a mode that the position of a tank is controlled when matching with direction instruction | indication operation and a basic direction is changed. 携帯端末が実行する処理のうちの、本発明に関連する処理を主に示すフロー図である。It is a flowchart which mainly shows the process relevant to this invention among the processes which a portable terminal performs. 携帯端末が実行する処理のうちの、本発明に関連する処理を主に示すフロー図である。It is a flowchart which mainly shows the process relevant to this invention among the processes which a portable terminal performs. ゲーム画面における戦車の表示位置を説明するための図である。It is a figure for demonstrating the display position of the tank in a game screen. 方向指示操作と基本方向との対応付けが変更されるための条件を示す図である。It is a figure which shows the conditions for the matching of direction instruction | indication operation and a basic direction being changed. 実施形態3の処理を説明するための図である。FIG. 10 is a diagram for explaining processing of the third embodiment. マーカレス方式の拡張現実を説明するための図である。It is a figure for demonstrating the markerless system augmented reality.

[1.実施形態]
以下、本発明に係る実施形態について図面に基づき詳細に説明する。本発明に係る画像処理は、例えば、家庭用ゲーム機(据置型ゲーム機)、携帯ゲーム機、業務用ゲーム機、携帯電話機等の携帯端末、又はパーソナルコンピュータを用いて実現される。ここでは、本発明の実施形態に係る画像処理装置を、携帯端末を用いて実現する場合について説明する。
[1. Embodiment]
Hereinafter, embodiments according to the present invention will be described in detail with reference to the drawings. The image processing according to the present invention is realized by using, for example, a home game machine (stationary game machine), a portable game machine, an arcade game machine, a portable terminal such as a cellular phone, or a personal computer. Here, a case where the image processing apparatus according to the embodiment of the present invention is realized using a mobile terminal will be described.

[1−1.携帯端末のハードウェア構成]
図1は、本実施形態に係る携帯端末10のハードウェア構成を示す図である。図1に示すように、携帯端末10は、制御部12、記憶部14、主記憶部16、表示部18、操作キー部20、タッチパネル22、CCDカメラ24、センサ部26、通信部28等を含み、例えば、各部はバス30を介して接続される。なお、携帯端末10のハードウェア構成は、図1の例に限られず、携帯端末10は、公知の携帯端末に含まれる各種ハードウェア(例えば、SDカードスロット等)を含んでいてもよい。
[1-1. Hardware configuration of mobile terminal]
FIG. 1 is a diagram illustrating a hardware configuration of the mobile terminal 10 according to the present embodiment. As shown in FIG. 1, the mobile terminal 10 includes a control unit 12, a storage unit 14, a main storage unit 16, a display unit 18, an operation key unit 20, a touch panel 22, a CCD camera 24, a sensor unit 26, a communication unit 28, and the like. For example, each part is connected via the bus 30. Note that the hardware configuration of the mobile terminal 10 is not limited to the example of FIG. 1, and the mobile terminal 10 may include various hardware (for example, an SD card slot) included in a known mobile terminal.

制御部12は、記憶部14に記憶されるオペレーティングシステムや、外部接続される各種記憶媒体(例えば、SDカード等)に格納されるプログラムや通信部28を介して取得される各種データに基づいて携帯端末10の各部を制御する。   The control unit 12 is based on an operating system stored in the storage unit 14, a program stored in various externally connected storage media (for example, an SD card) and various data acquired via the communication unit 28. Each part of the portable terminal 10 is controlled.

記憶部14は、フラッシュメモリ等の不揮発性記憶媒体を含んで構成される。記憶部14には、オペレーティングシステム等が記憶される。主記憶部16は、例えば、RAMを含んで構成される。記憶部14に記憶されたプログラム等は、必要に応じて主記憶部16に書き込まれる。主記憶部16は、制御部12の作業用メモリとしても用いられる。   The storage unit 14 includes a nonvolatile storage medium such as a flash memory. The storage unit 14 stores an operating system and the like. The main storage unit 16 includes, for example, a RAM. Programs and the like stored in the storage unit 14 are written into the main storage unit 16 as necessary. The main storage unit 16 is also used as a working memory for the control unit 12.

表示部18は、一又は複数の公知の液晶表示パネルである。例えば、図示しないVRAMに描画された画像が表示部18に表示される。操作キー部20は、十字キーや各種ボタン等を含んで構成される。タッチパネル22は、表示部18に重畳するように配置され、外部からの接触位置を検出する。   The display unit 18 is one or a plurality of known liquid crystal display panels. For example, an image drawn in a VRAM (not shown) is displayed on the display unit 18. The operation key unit 20 includes a cross key and various buttons. The touch panel 22 is disposed so as to be superimposed on the display unit 18 and detects a contact position from the outside.

CCDカメラ24は、現実空間を撮影して画像を生成する。本実施形態においては、携帯端末10の筺体内にCCDカメラ24が含まれており、ユーザが、携帯端末10の位置や姿勢を変化させると、CCDカメラ24の撮影範囲が変化する場合を説明する。なお、携帯端末10とCCDカメラ24とが有線接続されている場合には、操作キー部20やタッチパネル22からのユーザの操作に基づいてCCDカメラ24の撮影範囲が変化するようにしてもよい。   The CCD camera 24 captures a real space and generates an image. In the present embodiment, a case will be described in which the CCD camera 24 is included in the housing of the mobile terminal 10 and the shooting range of the CCD camera 24 changes when the user changes the position and orientation of the mobile terminal 10. . When the portable terminal 10 and the CCD camera 24 are connected by wire, the shooting range of the CCD camera 24 may be changed based on a user operation from the operation key unit 20 or the touch panel 22.

センサ部26は、GPSセンサ、ジャイロセンサ、電子コンパス(地磁気センサ)、加速度センサ等から構成される。通信部28は、ネットワークを介して外部装置とデータ送受信を行う。   The sensor unit 26 includes a GPS sensor, a gyro sensor, an electronic compass (geomagnetic sensor), an acceleration sensor, and the like. The communication unit 28 performs data transmission / reception with an external device via a network.

[1−2.ユーザに提供される拡張現実]
携帯端末10は、ユーザに拡張現実を提供する。本実施形態においては、CCDカメラ24が現実空間を撮影することによって生成される現実空間の画像(以降、現実空間画像という。)と、仮想空間を所与の視点から見た様子を示す画像(以降、仮想空間画像という。)と、が重畳されて表示部18に表示されることによって、ユーザに拡張現実が提供される。また、本実施形態においては、ユーザが、拡張現実を利用したゲームをプレイする場合を説明する。
[1-2. Augmented reality provided to users]
The mobile terminal 10 provides augmented reality to the user. In the present embodiment, an image of a real space (hereinafter referred to as a real space image) generated when the CCD camera 24 images the real space, and an image (see below) showing the virtual space viewed from a given viewpoint. Hereinafter, the virtual space image) is superimposed and displayed on the display unit 18, thereby providing the user with augmented reality. Moreover, in this embodiment, the case where a user plays the game using an augmented reality is demonstrated.

図2は、ユーザが拡張現実を利用したゲームをプレイする様子を示す図である。図2に示すように、例えば、CCDカメラ24は、所定の模様44が描かれたマーカ40(検出対象)を撮影する。マーカ40は、紙やフィルム等であり、例えば、CCDカメラ24の視野内の任意の位置に配置される。例えば、図2の場合、マーカ40は、現実空間の机の上に配置される。   FIG. 2 is a diagram illustrating how a user plays a game using augmented reality. As shown in FIG. 2, for example, the CCD camera 24 photographs a marker 40 (detection target) on which a predetermined pattern 44 is drawn. The marker 40 is paper, film, or the like, and is disposed at an arbitrary position within the field of view of the CCD camera 24, for example. For example, in the case of FIG. 2, the marker 40 is disposed on a desk in the real space.

本実施形態においては、マーカ40が、所定の大きさの枠42(例えば、正方形の枠)を有し、当該枠42の中に所定の模様44(例えば、左右非対称の模様44)が描かれている場合を説明する。ここでは、図2に示すように、「L字型」の模様44がマーカ40に描かれている。   In the present embodiment, the marker 40 has a frame 42 (for example, a square frame) of a predetermined size, and a predetermined pattern 44 (for example, an asymmetric pattern 44) is drawn in the frame 42. Explain the case. Here, as shown in FIG. 2, an “L-shaped” pattern 44 is drawn on the marker 40.

マーカ40に描かれている模様44を示すデータは、予め記憶部14に記憶されている。携帯端末10は、現実空間画像に含まれる模様44と、記憶部14に記憶された模様44と、を公知の画像比較アルゴリズムに基づいて比較することによって、現実空間に配置されたマーカ40の種別、位置、大きさ、及び模様44の向きを特定する。   Data indicating the pattern 44 drawn on the marker 40 is stored in the storage unit 14 in advance. The portable terminal 10 compares the pattern 44 included in the real space image with the pattern 44 stored in the storage unit 14 based on a known image comparison algorithm, thereby identifying the type of the marker 40 arranged in the real space. The position, size, and orientation of the pattern 44 are specified.

この特定された情報(例えば、マーカ40の種別、位置、大きさ、及び模様44の向き)は、仮想空間に配置されたオブジェクトを、表示部18の画面において、どこにどのような大きさ又は向きで表示させるかを決定するために使用される。即ち、マーカ40の種別、位置、大きさ、及び模様44の向きを示す情報は、現実空間画像と仮想空間画像に関する位置合わせを行うために使用される。   This specified information (for example, the type, position, size, and direction of the pattern 44 of the marker 40) indicates the size and direction of the object placed in the virtual space on the screen of the display unit 18. Used to determine whether to display with. In other words, the information indicating the type, position, size, and orientation of the pattern 44 of the marker 40 is used to perform alignment for the real space image and the virtual space image.

図3は、仮想空間の一例を示す図である。本実施形態においては、仮想空間の一例として、戦場を模したゲーム空間50(仮想3次元空間)が生成される場合を説明する。ゲームが開始されると、主記憶部16にゲーム空間50が生成される。ゲーム空間50には、互いに直交する3軸(後述する仮想空間座標系)が設定される。ゲーム空間50に配置される各オブジェクト及び後述する仮想カメラ58の位置は、仮想空間に設定される3次元座標に基づいて定まる。   FIG. 3 is a diagram illustrating an example of a virtual space. In this embodiment, the case where the game space 50 (virtual three-dimensional space) imitating a battlefield is produced | generated as an example of virtual space is demonstrated. When the game is started, a game space 50 is generated in the main storage unit 16. In the game space 50, three axes (virtual space coordinate system described later) orthogonal to each other are set. The position of each object arranged in the game space 50 and the virtual camera 58 described later is determined based on the three-dimensional coordinates set in the virtual space.

図3に示すように、ゲーム空間50には、例えば、ユーザの操作に供される戦車を示すオブジェクトである戦車52と、戦車52の攻撃目標となる砦を示すオブジェクトである砦54と、敵キャラクタを示すオブジェクトである敵56と、が配置される。戦車52は、ユーザの操作に基づいてゲーム空間50を移動する。   As shown in FIG. 3, in the game space 50, for example, a tank 52 that is an object indicating a tank provided for a user's operation, a fort 54 that is an object indicating an attack target of the tank 52, and an enemy An enemy 56 that is an object representing a character is arranged. The tank 52 moves in the game space 50 based on a user operation.

また例えば、ユーザが所定の操作(例えば、タッチパネル22をタップする等)を行うと、戦車52は弾を発射する。戦車52から弾が発射されると弾を示すオブジェクト(図示せず)が生成され、当該オブジェクトと敵56とが衝突すると、砦54や敵56が消滅する。このように、ユーザは、戦車52を操作して砦54や敵56を撃破することを目指す。   Further, for example, when the user performs a predetermined operation (for example, tapping the touch panel 22), the tank 52 fires a bullet. When a bullet is fired from the tank 52, an object (not shown) indicating a bullet is generated, and when the object collides with the enemy 56, the fort 54 and the enemy 56 disappear. In this way, the user aims to destroy the fort 54 and the enemy 56 by operating the tank 52.

また、ゲーム空間50には、仮想カメラ58(視点)が設定される。仮想カメラ58からゲーム空間50を見た様子を示す仮想空間画像が、所定の時間間隔(例えば、CCDカメラ24のフレームレートに基づいて定まる間隔と同じ間隔)で生成される。例えば、ゲーム空間50に配置されるオブジェクトのうち、仮想カメラ58の視野(視錘台)内のオブジェクトを示す仮想空間画像が生成される。ユーザは、仮想空間画像と現実空間画像とが合成されたゲーム画面を見ながらゲームをプレイする。ゲーム空間50において戦車52や敵56が移動すると、ゲーム画面60においては、戦車52や敵56が、現実空間の机の上を移動するように表示制御される。   A virtual camera 58 (viewpoint) is set in the game space 50. A virtual space image showing how the game space 50 is viewed from the virtual camera 58 is generated at a predetermined time interval (for example, the same interval determined based on the frame rate of the CCD camera 24). For example, a virtual space image indicating an object in the field of view (view frustum) of the virtual camera 58 among the objects arranged in the game space 50 is generated. The user plays the game while looking at the game screen in which the virtual space image and the real space image are synthesized. When the tank 52 and the enemy 56 move in the game space 50, display control is performed on the game screen 60 so that the tank 52 and the enemy 56 move on the desk in the real space.

図4は、表示部18に表示されるゲーム画面の一例を示す図である。図4に示すように、ゲーム画面60には、現実空間画像62と仮想空間画像64とが合成されて表示される。例えば、現実空間の机の上にマーカ40が配置されている場合、ゲーム画面60においては、現実空間の机の上に戦場が展開されるように、ゲーム空間50に配置された各オブジェクトのゲーム画面60における表示位置が決定される。即ち、現実空間画像62と仮想空間画像64とに関する位置合わせが行われる。   FIG. 4 is a diagram illustrating an example of a game screen displayed on the display unit 18. As shown in FIG. 4, a real space image 62 and a virtual space image 64 are synthesized and displayed on the game screen 60. For example, when the marker 40 is arranged on a desk in the real space, the game of each object arranged in the game space 50 is displayed on the game screen 60 so that the battlefield is developed on the desk in the real space. A display position on the screen 60 is determined. In other words, the alignment for the real space image 62 and the virtual space image 64 is performed.

例えば、現実空間画像62に表示される撮影範囲(領域)が移動すると、仮想空間画像64に表示される仮想空間の範囲(領域)も移動する。例えば、ユーザが携帯端末10の位置、向き、又は姿勢を変化させてCCDカメラ24の撮影範囲を変化させると、この変化に伴って仮想カメラ58の撮影範囲も変化する。   For example, when the shooting range (region) displayed in the real space image 62 moves, the range (region) of the virtual space displayed in the virtual space image 64 also moves. For example, when the user changes the position, orientation, or orientation of the mobile terminal 10 to change the shooting range of the CCD camera 24, the shooting range of the virtual camera 58 also changes with this change.

本実施形態においては、CCDカメラ24の位置と視線方向は、仮想カメラ58の位置と視線方向に対応している。即ち、CCDカメラ24の位置が変化すると、この位置変化と同じように仮想カメラ58の位置も変化する。また、CCDカメラ24の視線方向が変化すると、この変化した方向と同じ方向に仮想カメラ58の視線方向も変化する。   In the present embodiment, the position and line-of-sight direction of the CCD camera 24 correspond to the position and line-of-sight direction of the virtual camera 58. That is, when the position of the CCD camera 24 changes, the position of the virtual camera 58 also changes in the same way as this change in position. When the line-of-sight direction of the CCD camera 24 changes, the line-of-sight direction of the virtual camera 58 also changes in the same direction as the changed direction.

例えば、図4に示すゲーム画面60の場合、ユーザが戦車52の後方に敵56がいるか否かを確認するためには、例えば、ユーザは、携帯端末10の向きを左に回転させることによって、CCDカメラ24の視線方向を左に回転させる。ユーザがCCDカメラ24の視線方向を左に回転させると、仮想カメラ58の視線方向も左に回転する。   For example, in the case of the game screen 60 shown in FIG. 4, in order for the user to check whether the enemy 56 is behind the tank 52, for example, the user rotates the direction of the mobile terminal 10 to the left, The line-of-sight direction of the CCD camera 24 is rotated to the left. When the user rotates the viewing direction of the CCD camera 24 to the left, the viewing direction of the virtual camera 58 also rotates to the left.

また、図4に示すように、ゲーム画面60には、ユーザが戦車52の方向指示操作を行うための前進ボタン66a、後退ボタン66b、左回転ボタン66c、右回転ボタン66d(これらをまとめて単にボタン66ともいう。)が表示される。各ボタン66が押下されたか否かは、タッチパネル22からの検出信号に基づいて判定される。   Further, as shown in FIG. 4, the game screen 60 includes a forward button 66a, a backward button 66b, a left rotation button 66c, and a right rotation button 66d (which are simply put together) for the user to perform a direction instruction operation of the tank 52. Also referred to as button 66). Whether or not each button 66 has been pressed is determined based on a detection signal from the touch panel 22.

ボタン66には、それぞれ基本方向が対応付けられている。基本方向は、方向指示操作に予め対応付けられている方向である。戦車52は、方向指示操作に対応する基本方向に基づいて移動する。即ち、ボタン66に対応付けられた基本方向に基づいて、戦車52の移動方向が決定される。   Each button 66 is associated with a basic direction. The basic direction is a direction previously associated with the direction instruction operation. The tank 52 moves based on the basic direction corresponding to the direction instruction operation. That is, the moving direction of the tank 52 is determined based on the basic direction associated with the button 66.

本実施形態においては、基本方向は、3次元のベクトルで表される場合を説明するが、基本方向は、2次元のベクトルで表されるようにしてもよい。また、ここでは、基本方向が、仮想カメラ58を基準にした座標系ではなく、戦車52を基準にした座標系(ローカル座標系。キャラクタ座標系ともいう。)で定義される場合を説明する。   In the present embodiment, a case where the basic direction is represented by a three-dimensional vector will be described. However, the basic direction may be represented by a two-dimensional vector. Here, a case where the basic direction is defined not by a coordinate system based on the virtual camera 58 but by a coordinate system based on the tank 52 (local coordinate system; also referred to as a character coordinate system) will be described.

図5は、方向指示操作に対応付けられた基本方向を説明するための図である。図5に示すように、戦車52に基づいて設定されるローカル座標系(XLW−YLW−ZLW座標系)で表される方向が、基準方向として設定されている。ローカル座標系の原点OLWは、戦車52の位置に基づいて定められる。 FIG. 5 is a diagram for explaining the basic direction associated with the direction instruction operation. As shown in FIG. 5, the direction represented by the local coordinate system (X LW -Y LW -Z LW coordinate system) set based on the tank 52 is set as the reference direction. The origin O LW of the local coordinate system is determined based on the position of the tank 52.

ユーザにより方向指示操作が行われた場合、ローカル座標系で表される基本方向が、公知の座標変換処理により、仮想空間座標系(ワールド座標系)のベクトルに変換されることによって、戦車52の移動方向が特定される。   When the direction instruction operation is performed by the user, the basic direction represented in the local coordinate system is converted into a vector in the virtual space coordinate system (world coordinate system) by a known coordinate conversion process. The moving direction is specified.

例えば、前進ボタン66aには、戦車52の正面方向が基準方向Va(例えば、ZLW軸の正方向)として対応付けられている。例えば、前進ボタン66aが押下された場合、戦車52は、戦車52から見た正面方向に移動する。例えば、後退ボタン66bには、戦車52の背面方向が基準方向Vb(例えば、ZLW軸の負方向)として対応付けられている。例えば、後退ボタン66bが押下された場合、戦車52は、戦車52から見た背面方向に移動する。 For example, the front direction of the tank 52 is associated with the forward button 66a as the reference direction Va (for example, the positive direction of the Z LW axis). For example, when the forward button 66 a is pressed, the tank 52 moves in the front direction viewed from the tank 52. For example, the backward direction of the tank 52 is associated with the reverse button 66b as the reference direction Vb (for example, the negative direction of the Z LW axis). For example, when the retreat button 66 b is pressed, the tank 52 moves in the back direction viewed from the tank 52.

例えば、左回転ボタン66cには、戦車52から見て左方向が基準方向Vc(例えば、XLW軸の負方向)として対応付けられている。例えば、左回転ボタン66cが押下された場合、戦車52は、戦車52から見て左回りに回転する。例えば、右回転ボタン66dには、戦車52から見て右方向が基準方向Vd(例えば、XLW軸の正方向)として対応付けられている。例えば、右回転ボタン66dが押下された場合、戦車52は、戦車52から見て右回りに回転する。 For example, the left rotation button 66c is associated with the left direction as viewed from the tank 52 as the reference direction Vc (for example, the negative direction of the X LW axis). For example, when the left rotation button 66 c is pressed, the tank 52 rotates counterclockwise as viewed from the tank 52. For example, the right direction as viewed from the tank 52 is associated with the right rotation button 66d as the reference direction Vd (for example, the positive direction of the X LW axis). For example, when the right rotation button 66 d is pressed, the tank 52 rotates clockwise as viewed from the tank 52.

例えば、ユーザは、戦車52を前後に移動させたい場合、前進ボタン66a又は後退ボタン66bを押下する。また例えば、ユーザは、戦車52を左右に移動させたい場合、左回転ボタン66c又は右回転ボタン66dを押下して戦車52を回転させた後に、前進ボタン66a又は後退ボタン66bを押下する。また例えば、ユーザは、戦車52を斜めに旋回させながら移動させたい場合、前進ボタン66a又は後退ボタン66b、及び、左回転ボタン66c又は右回転ボタン66dを押下して戦車を移動させる。   For example, when the user wants to move the tank 52 back and forth, the user presses the forward button 66a or the backward button 66b. For example, when the user wants to move the tank 52 to the left or right, the user presses the left rotation button 66c or the right rotation button 66d to rotate the tank 52, and then presses the forward button 66a or the backward button 66b. Further, for example, when the user wants to move the tank 52 while turning it obliquely, the user moves the tank by pressing the forward button 66a or the backward button 66b and the left rotation button 66c or the right rotation button 66d.

このように、戦車52を基準としたローカル座標系で基本方向が定義される場合、戦車52と仮想カメラ58との位置関係が異なれば、ユーザが同じ方向指示操作を行っても、ゲーム画面60において戦車52の移動方向が異なる。したがって、ユーザは、戦車52の向きを考えながら方向指示操作を行わなければならず、戦車52を動かす方向を誤ってしまう可能性がある。例えば、戦車52が仮想カメラ58の視野の外に出てしまい、ゲーム画面60から戦車52が消えてしまう可能性がある。   As described above, when the basic direction is defined in the local coordinate system based on the tank 52, if the positional relationship between the tank 52 and the virtual camera 58 is different, even if the user performs the same direction instruction operation, the game screen 60 The movement direction of the tank 52 is different. Therefore, the user must perform a direction instruction operation while considering the direction of the tank 52, and there is a possibility that the direction in which the tank 52 is moved is wrong. For example, the tank 52 may go out of the field of view of the virtual camera 58, and the tank 52 may disappear from the game screen 60.

本実施形態の携帯端末10は、CCDカメラ24の撮影範囲が変化して現実空間画像62が広がり、かつ、ボタン66が押下された場合、方向指示操作と基本方向との対応付けを変更させることによって、戦車52を現実空間画像62が広がった方向に向けて移動させる。即ち、現実空間画像62が広がった方向を、ユーザが戦車52を動かしたい方向と考えることにより、ユーザの操作補助が行われる。   The portable terminal 10 according to the present embodiment changes the association between the direction instruction operation and the basic direction when the shooting range of the CCD camera 24 is changed to expand the real space image 62 and the button 66 is pressed. Thus, the tank 52 is moved in the direction in which the real space image 62 is expanded. That is, the user's operation assistance is performed by regarding the direction in which the real space image 62 spreads as the direction in which the user wants to move the tank 52.

ここで、ユーザの操作補助を行う方法として、センサ部26のジャイロセンサや加速度センサを用いて、例えば、携帯端末10が傾いた方向に戦車52を移動させることも考えられる。しかしながら、拡張現実を用いたゲームの性格上、仮想カメラ58が戦車52の移動に従動する訳ではないので、この方法では、やはり戦車52がゲーム画面60の表示領域から外れてしまう可能性がある。即ち、戦車52が仮想カメラ58の視野から外れてしまう。この場合、ユーザは、戦車52を視認することができなくなってしまうので、ゲームをプレイすることが困難になってしまう。   Here, as a method for assisting the user's operation, for example, the tank 52 may be moved in a direction in which the mobile terminal 10 is tilted by using a gyro sensor or an acceleration sensor of the sensor unit 26. However, since the virtual camera 58 does not follow the movement of the tank 52 due to the nature of the game using augmented reality, the tank 52 may still be out of the display area of the game screen 60 in this method. . That is, the tank 52 is out of the field of view of the virtual camera 58. In this case, since the user cannot visually recognize the tank 52, it becomes difficult to play the game.

そこで、本実施形態の携帯端末10は、現実空間画像62が広がった方向に戦車52を移動させることによって、ゲーム画面60から戦車52が外れてしまうことを防止しつつ、ユーザの操作補助が行われる。以下、上記技術について詳細に説明する。   Therefore, the mobile terminal 10 according to the present embodiment performs operation assistance for the user while preventing the tank 52 from being detached from the game screen 60 by moving the tank 52 in the direction in which the real space image 62 spreads. Is called. Hereinafter, the technique will be described in detail.

[1−3.ゲーム装置において実現される機能]
図6は、携帯端末10で実現される機能を示す機能ブロック図である。図6に示すように、携帯端末10は、拡張現実データ記憶部70、撮影部72、表示制御部74、操作部76、移動制御部78、判定部80を含む。これら各機能は、例えば、制御部12が記憶部14に記憶されたプログラムを実行することによって実現される。
[1-3. Functions realized in game device]
FIG. 6 is a functional block diagram showing functions realized by the mobile terminal 10. As illustrated in FIG. 6, the mobile terminal 10 includes an augmented reality data storage unit 70, an imaging unit 72, a display control unit 74, an operation unit 76, a movement control unit 78, and a determination unit 80. Each of these functions is realized, for example, when the control unit 12 executes a program stored in the storage unit 14.

[1−3−1.拡張現実データ記憶部]
拡張現実データ記憶部70は、記憶部14及び主記憶部16を主として実現される。拡張現実データ記憶部70は、ユーザに拡張現実を提供するために必要なデータを記憶する。例えば、拡張現実データ記憶部70には、マーカ40に関するマーカデータが記憶される。
[1-3-1. Augmented reality data storage]
The augmented reality data storage unit 70 is realized mainly by the storage unit 14 and the main storage unit 16. The augmented reality data storage unit 70 stores data necessary to provide augmented reality to the user. For example, the augmented reality data storage unit 70 stores marker data related to the marker 40.

図7は、マーカデータのデータ格納例を示す図である。図7に示すように、マーカデータには、例えば、マーカ40の模様44を示す画像データと、当該マーカ40に関連付けられた拡張現実に関するデータと、が対応付けられる。マーカデータに格納される画像データは、現実空間に配置されるマーカ40との比較対象として用いられる。即ち、マーカデータは、ユーザが拡張現実を利用するために必要なマーカ40を定義するデータである。   FIG. 7 is a diagram illustrating a data storage example of marker data. As shown in FIG. 7, for example, image data indicating the pattern 44 of the marker 40 and data relating to augmented reality associated with the marker 40 are associated with the marker data. The image data stored in the marker data is used as a comparison target with the marker 40 arranged in the real space. That is, the marker data is data that defines the marker 40 necessary for the user to use augmented reality.

拡張現実に関するデータとは、マーカデータに格納されたマーカ40が検出された場合にユーザに提供すべき拡張現実の種別を識別するため情報である。例えば、本実態形態のように「L字型」の模様44を有するマーカ40が検出された場合には、ユーザが戦車52を操作するゲームを用いた拡張現実が提供される。また例えば、別の模様44のマーカ40が検出された場合には、歌を歌いながら踊るキャラクタの立体映像がマーカ40の周囲に表示されることによって拡張現実が提供される。   The data related to augmented reality is information for identifying the type of augmented reality to be provided to the user when the marker 40 stored in the marker data is detected. For example, when the marker 40 having the “L-shaped” pattern 44 is detected as in this actual form, augmented reality using a game in which the user operates the tank 52 is provided. Further, for example, when a marker 40 of another pattern 44 is detected, augmented reality is provided by displaying a stereoscopic image of a character dancing while singing a song around the marker 40.

また、拡張現実データ記憶部70には、ゲーム空間50の現在の状況を示す仮想空間データが格納される。仮想空間データには、例えば、ゲーム空間50に配置される各オブジェクトの位置、姿勢、向き、及び移動方向に関する情報と、仮想カメラ58の視野に関する情報(例えば、位置及び視線方向)とが格納される。   The augmented reality data storage unit 70 stores virtual space data indicating the current state of the game space 50. In the virtual space data, for example, information on the position, posture, orientation, and moving direction of each object arranged in the game space 50 and information on the visual field of the virtual camera 58 (for example, position and line-of-sight direction) are stored. The

仮想空間データに格納される各オブジェクトの位置は、ユーザの操作や所定のアルゴリズムに基づいて内容が更新される。また、本実施形態においては、仮想空間データに格納される仮想カメラ58の位置や視線方向は、現実空間画像62におけるマーカ40の表示内容(例えば、表示位置、大きさ、及び向き)に基づいて決定される。   The contents of the positions of the objects stored in the virtual space data are updated based on the user's operation or a predetermined algorithm. In the present embodiment, the position and line-of-sight direction of the virtual camera 58 stored in the virtual space data are based on the display contents (for example, display position, size, and orientation) of the marker 40 in the real space image 62. It is determined.

なお、制御部12は、拡張現実データ記憶部70に記憶される各種データを取得する手段として機能する。また、制御部12は、拡張現実データ記憶部70に記憶される各種データを変更(更新)する手段として機能する。また、拡張現実データ記憶部70に記憶されるデータは、上記の例に限られず、他にも例えば、携帯端末10がゲームを実行するために必要なデータ(ユーザの得点を示すデータや戦車52の残り体力を示すデータ等)が記憶されていてもよい。   The control unit 12 functions as a means for acquiring various data stored in the augmented reality data storage unit 70. The control unit 12 functions as a means for changing (updating) various data stored in the augmented reality data storage unit 70. Further, the data stored in the augmented reality data storage unit 70 is not limited to the above example. For example, data necessary for the mobile terminal 10 to execute a game (data indicating a user's score or a tank 52) For example, data indicating the remaining physical strength of the child may be stored.

[1−3−2.撮影部]
撮影部72は、制御部12及びCCDカメラ24を主として実現される。撮影部72は、ユーザの操作により撮影範囲が変化する。例えば、ユーザが撮影部72の位置、向き、及び姿勢を変化させることによって撮影範囲が変化する。撮影範囲は、例えば、撮影部72の位置及び視線方向に基づいて決定される。
[1-3-2. Shooting part]
The photographing unit 72 is realized mainly by the control unit 12 and the CCD camera 24. The shooting range of the shooting unit 72 is changed by a user operation. For example, the shooting range changes when the user changes the position, orientation, and orientation of the shooting unit 72. The imaging range is determined based on, for example, the position of the imaging unit 72 and the line-of-sight direction.

撮影部72は、例えば、検出対象(例えば、マーカ40)が配置された現実空間を撮影する。撮影部72により現実空間が撮影されることによって生成される現実空間画像を示す画像データは、例えば、拡張現実データ記憶部70に一時的に記憶される。   The imaging unit 72 images, for example, a real space where a detection target (for example, the marker 40) is arranged. Image data indicating a real space image generated by photographing the real space by the photographing unit 72 is temporarily stored in, for example, the augmented reality data storage unit 70.

[1−3−3.表示制御部]
表示制御部74は、制御部12を主として実現される。表示制御部74は、撮影部72が現実空間を撮影することによって生成される現実空間画像62と、撮影範囲に対応する視野が設定された視点(例えば、仮想カメラ58)からユーザの操作対象(例えば、戦車52)が配置された仮想空間(例えば、ゲーム空間50)を見た様子を示す仮想空間画像64と、に関する位置合わせ及び合成をして表示画面(例えば、ゲーム画面60)に表示させる。
[1-3-3. Display control unit]
The display control unit 74 is realized mainly by the control unit 12. The display control unit 74 operates the user's operation target (for example, the virtual camera 58) from the real space image 62 generated by the photographing unit 72 photographing the real space and the viewpoint (for example, the virtual camera 58) in which the visual field corresponding to the photographing range is set. For example, the virtual space image 64 showing a state in which the tank 52) is placed and the virtual space image 64 showing a state of viewing the virtual space (for example, the game space 50) is aligned and combined and displayed on the display screen (eg, the game screen 60). .

現実空間画像62と仮想空間画像64とに関する位置合わせとは、仮想空間に配置されたオブジェクトをゲーム画面60で表示させる場合の表示位置を決定するための処理である。別の言い方をすれば、現実空間画像62と仮想空間画像64とに関する位置合わせとは、ユーザに拡張現実を提供するために行われる現実空間と仮想空間との位置合わせ処理である。   The alignment relating to the real space image 62 and the virtual space image 64 is a process for determining a display position when an object placed in the virtual space is displayed on the game screen 60. In other words, the alignment for the real space image 62 and the virtual space image 64 is an alignment process between the real space and the virtual space that is performed to provide the user with augmented reality.

撮影範囲に対応する視野とは、撮影部72の撮影範囲に基づいて仮想カメラ58の視野がさだまることを示す。例えば、表示制御部74は、現実空間の座標系と撮影部72の座標系との関係と、仮想空間の座標系と仮想カメラ58の座標系の関係と、が対応するように仮想カメラ58の制御を行うことによって、現実空間画像62と仮想空間画像64とに関する位置合わせを行う。   The field of view corresponding to the shooting range indicates that the field of view of the virtual camera 58 is reduced based on the shooting range of the shooting unit 72. For example, the display control unit 74 controls the virtual camera 58 so that the relationship between the coordinate system of the real space and the coordinate system of the photographing unit 72 corresponds to the relationship between the coordinate system of the virtual space and the coordinate system of the virtual camera 58. By performing the control, alignment with respect to the real space image 62 and the virtual space image 64 is performed.

即ち、表示制御部74は、現実空間の基準位置(例えば、マーカ40の位置)と撮影部72の撮影範囲(視野)との位置関係と、仮想空間の基準位置(例えば、仮想空間座標系の原点の位置)と仮想カメラ58の視野との位置関係と、が対応するように仮想視点の制御を行うことによって、現実空間画像62と仮想空間画像64とに関する位置合わせを行う。ユーザが撮影部72の撮影範囲を変更させた場合、表示制御部74は、この変更に基づいて仮想カメラ58の視野を変更させる。   That is, the display control unit 74 determines the positional relationship between the reference position in the real space (for example, the position of the marker 40) and the shooting range (field of view) of the shooting unit 72, and the reference position in the virtual space (for example, in the virtual space coordinate system). The virtual viewpoint is controlled so that the positional relationship between the position of the origin) and the visual field of the virtual camera 58 corresponds to perform alignment with respect to the real space image 62 and the virtual space image 64. When the user changes the shooting range of the shooting unit 72, the display control unit 74 changes the field of view of the virtual camera 58 based on this change.

本実施形態においては、表示制御部74は、現実空間画像62におけるマーカ40の位置、大きさ、及び向きに基づいて、現実空間画像62と仮想空間画像64との位置合わせを行う場合を説明する。   In the present embodiment, a case will be described in which the display control unit 74 performs alignment between the real space image 62 and the virtual space image 64 based on the position, size, and orientation of the marker 40 in the real space image 62. .

図8は、表示制御部74による位置合わせの方法を説明するための図である。図8に示すように、例えば、現実空間においては、マーカ40の位置、大きさ、及び向きに基づいて現実空間座標系(XRW−YRW−ZRW座標系)が設定され、撮影部72の位置、向き、及び姿勢(即ち、CCDカメラ24の位置、向き、及び姿勢)に基づいて現実視点座標系(XRC−YRC−ZRC座標系)が設定される。 FIG. 8 is a diagram for explaining a positioning method by the display control unit 74. As shown in FIG. 8, for example, in the real space, the real space coordinate system (X RW -Y RW -Z RW coordinate system) is set based on the position, size, and orientation of the marker 40, and the photographing unit 72. The actual viewpoint coordinate system (X RC -Y RC -Z RC coordinate system) is set based on the position, orientation, and orientation (that is, the position, orientation, and orientation of the CCD camera 24).

現実空間座標系は、現実空間に配置される物体の位置を表すための座標系であり、マーカ40が基準となる座標系である。一方、現実視点座標系は、撮影部72の視点と現実空間に配置される物体との関係を表すための座標系であり、撮影部72が基準となる座標系である。   The real space coordinate system is a coordinate system for representing the position of an object placed in the real space, and is a coordinate system based on the marker 40. On the other hand, the real viewpoint coordinate system is a coordinate system for representing the relationship between the viewpoint of the photographing unit 72 and an object placed in the real space, and is a coordinate system based on the photographing unit 72.

例えば、現実空間座標系の原点ORWは、マーカ40の中心点に設定される。そして、XRW軸方向が「L字型」の模様44の短手方向に対応し、YRW軸方向が「L字型」の模様の長手方向に対応する。ZRW軸方向は、XRW軸方向とYRW軸方向の外積方向となる。 For example, the origin O RW of the real space coordinate system is set to the center point of the marker 40. The X RW axis direction corresponds to the short direction of the “L-shaped” pattern 44, and the Y RW axis direction corresponds to the long direction of the “L-shaped” pattern 44. The Z RW axis direction is the outer product direction of the X RW axis direction and the Y RW axis direction.

また例えば、現実視点座標系の原点ORCは、撮影部72の視点の位置に設定される。そして、例えば、XRC軸方向が現実空間画像62の長手方向(即ち、撮影部72から見て水平方向)に対応し、YRC軸方向が現実空間画像62の短手方向(即ち、撮影部72から見て垂直方向)に対応する。また例えば、ZRC軸方向が、撮影部72の視線方向に設定される。 Further, for example, the origin O RC reality viewpoint coordinate system is set to the position of the viewpoint of the imaging unit 72. For example, the XRC axis direction corresponds to the longitudinal direction of the real space image 62 (that is, the horizontal direction when viewed from the photographing unit 72), and the YRC axis direction corresponds to the short direction of the real space image 62 (that is, the photographing unit). Corresponds to the vertical direction as viewed from 72). Further, for example, the Z RC axis direction is set as the line-of-sight direction of the imaging unit 72.

現実空間座標系(XRW−YRW−ZRW座標系)は、回転及び平行移動することによって、現実視点座標系(XRC−YRC−ZRC座標系)に変換可能である。表示制御部74は、現実空間画像62におけるマーカ40の表示内容(位置、大きさ、及び向き)に基づいて、現実空間座標系から現実視点座標系へ変換を行う場合の座標変換行例を算出する。 The real space coordinate system (X RW -Y RW -Z RW coordinate system) can be converted into a real viewpoint coordinate system (X RC -Y RC -Z RC coordinate system) by rotating and translating. The display control unit 74 calculates a coordinate conversion example in the case of performing conversion from the real space coordinate system to the real viewpoint coordinate system based on the display contents (position, size, and orientation) of the marker 40 in the real space image 62. To do.

具体的には、まず、表示制御部74は、公知の輪郭抽出処理に基づいて、現実空間画像62のマーカ40の枠42を抽出する。マーカ40の枠42が抽出される際には、現実空間画像62における枠42の四隅の位置が特定されることによって、現実空間画像62に表れるマーカ40の位置が特定される。   Specifically, first, the display control unit 74 extracts the frame 42 of the marker 40 of the real space image 62 based on a known contour extraction process. When the frame 42 of the marker 40 is extracted, the positions of the four corners of the frame 42 in the real space image 62 are specified, whereby the positions of the markers 40 appearing in the real space image 62 are specified.

そして、表示制御部74は、抽出された枠42内に描かれた模様44と、マーカデータに格納された模様44の画像データと、が比較するためのパターンマッチング処理を行うことによって、マーカ40の種別、現実空間画像62に表れるマーカ40の大きさ、及び模様44の向きを特定する。   Then, the display control unit 74 performs a pattern matching process for comparing the pattern 44 drawn in the extracted frame 42 with the image data of the pattern 44 stored in the marker data. , The size of the marker 40 appearing in the real space image 62, and the orientation of the pattern 44 are specified.

そして、現実空間画像62におけるマーカ40の位置と、現実空間画像62におけるマーカ40の大きさとマーカデータに格納されたマーカ40の大きさとのずれと、現実空間画像62におけるマーカ40の模様44の向きとマーカデータに格納されたマーカ40の模様44の向きとのずれと、に基づいて、現実空間座標系から現実視点座標系へ変換する場合の回転成分と平行移動成分とが算出されることによって、座標変換行列が取得される。   Then, the position of the marker 40 in the real space image 62, the deviation between the size of the marker 40 in the real space image 62 and the size of the marker 40 stored in the marker data, and the direction of the pattern 44 of the marker 40 in the real space image 62 And a rotation component and a translation component in the conversion from the real space coordinate system to the real viewpoint coordinate system are calculated based on the deviation of the direction of the pattern 44 of the marker 40 stored in the marker data. A coordinate transformation matrix is obtained.

この座標変換行列に基づいて、仮想空間座標系(XVW−YVW−ZVW座標系)を変換することによって、仮想視点座標系(XVC−YVC−ZVC座標系)が設定される。仮想空間座標系は、ゲーム空間50に配置される各オブジェクトの位置を表すための座標系である。仮想視点座標系は、仮想カメラ58と各オブジェクトとの位置関係を表すための座標系である。例えば、仮想カメラ58の位置が、仮想視点座標系の原点OVCとなり、仮想カメラ58の視線方向が、仮想視点座標系のZvc軸方向となる。 Based on this coordinate transformation matrix, the virtual viewpoint coordinate system (X VC -Y VC -Z VC coordinate system) is set by transforming the virtual space coordinate system (X VW -Y VW -Z VW coordinate system). . The virtual space coordinate system is a coordinate system for representing the position of each object arranged in the game space 50. The virtual viewpoint coordinate system is a coordinate system for representing the positional relationship between the virtual camera 58 and each object. For example, the position of the virtual camera 58 is the origin O VC of the virtual viewpoint coordinate system, and the line-of-sight direction of the virtual camera 58 is the Z vc axis direction of the virtual viewpoint coordinate system.

仮想空間座標系を、座標変換行列が示すように回転及び平行移動させると、仮想視点座標系が定まる。つまり、撮影部72の視点の位置(例えば、原点ORC)とマーカ40の位置(例えば、原点ORW)との位置関係と、仮想カメラ58の位置(例えば、原点OVC)と仮想空間座標系の原点Ovwとの位置関係と、が同じ位置関係になるように、仮想カメラ58の位置及び視線方向が決定される。 When the virtual space coordinate system is rotated and translated as indicated by the coordinate transformation matrix, the virtual viewpoint coordinate system is determined. That is, the positional relationship between the position of the viewpoint of the photographing unit 72 (for example, the origin O RC ) and the position of the marker 40 (for example, the origin O RW ), the position of the virtual camera 58 (for example, the origin O VC ), and the virtual space coordinates. The position and line-of-sight direction of the virtual camera 58 are determined so that the positional relationship with the system origin O vw is the same.

上記のように、位置及び視線方向が決定された仮想カメラ58からゲーム空間50を見た様子を示す仮想空間画像64と、現実空間画像62と、が重畳されることによって、ゲーム画面60における戦車52の表示位置が決定される。   As described above, the virtual space image 64 showing the state of viewing the game space 50 from the virtual camera 58 whose position and line-of-sight direction are determined and the real space image 62 are superimposed, so that the tank on the game screen 60 52 display positions are determined.

なお、マーカ40を用いて拡張現実における仮想空間の物体の表示位置を決定する方法は、上記の例に限られず、公知の種々の手法を適用可能である。他にも例えば、現実空間の垂直方向に配置されたマーカ40(例えば、壁や窓に張り付けられたマーカ40)に基づいて仮想空間の物体の表示位置が決定されるようにしてもよいし、複数のマーカ40を同時に検出することによって、仮想空間の物体の表示位置が決定されるようにしてもよい。   Note that the method of determining the display position of the object in the virtual space in augmented reality using the marker 40 is not limited to the above example, and various known methods can be applied. In addition, for example, the display position of the object in the virtual space may be determined based on the marker 40 (for example, the marker 40 attached to a wall or a window) arranged in the vertical direction of the real space. The display position of the object in the virtual space may be determined by detecting a plurality of markers 40 simultaneously.

[1−3−4.操作部]
操作部76は、制御部12及びタッチパネル22を主として実現される。操作部76は、ユーザが操作対象(例えば、戦車52)の方向指示操作を行うためのものである。例えば、操作部76の検出信号に基づいてユーザの方向指示操作が検出される。
[1-3-4. Operation unit]
The operation unit 76 is mainly realized by the control unit 12 and the touch panel 22. The operation unit 76 is for a user to perform a direction instruction operation on an operation target (for example, a tank 52). For example, the user's direction instruction operation is detected based on the detection signal from the operation unit 76.

例えば、操作部76は、タッチパネル22から検出された信号に基づいて、ユーザによる方向指示操作が検出される。本実施形態においては、ユーザが複数のボタン66の何れかを押下することによって、複数の方向指示操作を行う場合を説明する。これら複数の方向指示操作の各々には、基本方向が対応付けられている。   For example, the operation unit 76 detects a direction instruction operation by the user based on a signal detected from the touch panel 22. In the present embodiment, a case will be described in which the user performs a plurality of direction instruction operations by pressing any of the plurality of buttons 66. Each of the plurality of direction instruction operations is associated with a basic direction.

例えば、ゲーム制作者等によって、どの方向指示操作がどの基本方向に対応しているか、が予め定められている。本実施形態における基本方向は、操作対象の移動方向を特定するための方向であり、仮想視点座標系とは異なる座標系(例えば、ローカル座標系)で表される。即ち、仮想カメラ58の位置と視線方向が異なった場合、仮想カメラ58から見た基本方向の向きが異なるような座標系で基本方向が定義される。   For example, which direction instruction operation corresponds to which basic direction is predetermined by a game creator or the like. The basic direction in the present embodiment is a direction for specifying the movement direction of the operation target, and is represented by a coordinate system (for example, a local coordinate system) different from the virtual viewpoint coordinate system. That is, when the position of the virtual camera 58 and the line-of-sight direction are different, the basic direction is defined in a coordinate system in which the direction of the basic direction seen from the virtual camera 58 is different.

なお、本実施形態においては、タッチパネル22からの操作によって方向指示操作が行われる場合を説明するが、他にも例えば、操作キー部20からの入力信号に基づいて方向指示操作が行われるようにしてもよい。この場合、操作部76は、操作キー部20により実現される。例えば、操作キー部20の複数のボタンと複数の基本方向とが対応付けられる。   In the present embodiment, a case where a direction instruction operation is performed by an operation from the touch panel 22 will be described. However, for example, a direction instruction operation is performed based on an input signal from the operation key unit 20. May be. In this case, the operation unit 76 is realized by the operation key unit 20. For example, a plurality of buttons of the operation key unit 20 are associated with a plurality of basic directions.

[1−3−5.移動制御部]
移動制御部78は、制御部12を主として実現される。移動制御部78は、ユーザにより行われた方向指示操作に対応する基本方向に基づいて操作対象(例えば、戦車52)を移動させる。例えば、移動制御部78は、方向指示操作に対応する基本方向に基づいて戦車52を移動させる。本実施形態においては、戦車52が、ゲーム空間50の所定平面上(例えば、XVW−YVW平面上)を移動する場合を説明する。
[1-3-5. Movement control unit]
The movement control unit 78 is realized mainly by the control unit 12. The movement control unit 78 moves the operation target (for example, the tank 52) based on the basic direction corresponding to the direction instruction operation performed by the user. For example, the movement control unit 78 moves the tank 52 based on the basic direction corresponding to the direction instruction operation. In the present embodiment, a case where the tank 52 moves on a predetermined plane of the game space 50 (for example, on the X VW -Y VW plane) will be described.

例えば、本実施形態のように、基本方向が戦車52を基準としたローカル座標系で定義される場合、ローカル座標系と仮想空間座標系とを変換するための座標変換行列が、仮想空間データに格納された戦車52の位置、向き、及び姿勢に基づいて適宜算出される。この座標変換行列に基づいて基本方向がローカル座標系から仮想空間座標系に変換されることによって、仮想空間座標系における戦車52の移動方向が特定される。なお、ローカル座標系と仮想空間座標系とを変換する方法は、公知の種々の座標変換処理を適用可能である。   For example, as in the present embodiment, when the basic direction is defined in a local coordinate system based on the tank 52, a coordinate transformation matrix for transforming the local coordinate system and the virtual space coordinate system is included in the virtual space data. It is appropriately calculated based on the stored position, orientation, and posture of the tank 52. The basic direction is converted from the local coordinate system to the virtual space coordinate system based on this coordinate conversion matrix, whereby the moving direction of the tank 52 in the virtual space coordinate system is specified. Note that various known coordinate conversion processes can be applied to the method of converting between the local coordinate system and the virtual space coordinate system.

[1−3−6.判定部]
判定部80は、制御部12を主として実現される。判定部80は、現実空間画像62が示す撮影範囲が変化したか否かを判定する。現実空間画像62が示す撮影範囲が変化したか否かは、例えば、現実空間画像62の時系列的な変化に基づいて判定される。例えば、現実空間画像62は、時系列的に拡張現実データ記憶部70に記憶されており、一の現実空間画像62と、当該現実空間画像62よりも前に撮影された現実空間画像62と、が比較(パターンマッチング)されることによって、現実空間画像62が示す撮影範囲が変化したか否かが判定される。
[1-3-6. Judgment unit]
The determination unit 80 is realized mainly by the control unit 12. The determination unit 80 determines whether or not the shooting range indicated by the real space image 62 has changed. Whether or not the shooting range indicated by the physical space image 62 has changed is determined based on, for example, time-series changes in the physical space image 62. For example, the real space image 62 is stored in the augmented reality data storage unit 70 in time series, and one real space image 62, a real space image 62 taken before the real space image 62, Are compared (pattern matching) to determine whether or not the shooting range indicated by the real space image 62 has changed.

また、本実施形態においては、例えば、所定期間(例えば、1秒間)において、現実空間画像62が広がった領域(即ち、現実空間画像62に新たに表れる現実空間の領域)が所定面積(所定画素数)以上であるか否かが判定されることによって、現実空間画像62が示す撮影範囲が変化したか否かが判定される場合を説明する。即ち、所定期間において、現実空間画像62に新たに表れた現実空間の領域が所定面積以上であるか否かが判定される。   In the present embodiment, for example, in a predetermined period (for example, 1 second), an area in which the real space image 62 spreads (that is, a real space area newly appearing in the real space image 62) has a predetermined area (predetermined pixels). A case will be described in which it is determined whether or not the shooting range indicated by the real space image 62 has been changed by determining whether or not it is greater than or equal to (number). That is, it is determined whether or not the area of the real space newly appearing in the real space image 62 is greater than or equal to the predetermined area during the predetermined period.

なお、現実空間画像62が示す撮影範囲が変化したか否かを判定する方法は、上記の例に限られず、種々の画像変化検出手法に基づいて、現実空間画像62が示す撮影範囲が変化したか否かが判定されるようにしてもよい。例えば、現実空間画像62に含まれる対象物を追跡することによって、現実空間画像62が示す撮影範囲が変化したか否かが判定されるようにしてもよい。即ち例えば、現実空間画像62のマーカ40の表示位置が所定距離以上変化したか否かに基づいて、現実空間画像62が示す撮影範囲が変化したか否かが判定されるようにしてもよい。   The method for determining whether or not the shooting range indicated by the real space image 62 has changed is not limited to the above example, and the shooting range indicated by the real space image 62 has changed based on various image change detection methods. It may be determined whether or not. For example, by tracking an object included in the physical space image 62, it may be determined whether or not the shooting range indicated by the physical space image 62 has changed. That is, for example, based on whether or not the display position of the marker 40 in the real space image 62 has changed by a predetermined distance or more, it may be determined whether or not the shooting range indicated by the real space image 62 has changed.

携帯端末10においては、上記のように行われる判定部80の判定結果に基づいて、図5を参照して説明した方向指示操作と基本方向との対応付けが変更される構成になっている。   The mobile terminal 10 is configured to change the association between the direction instruction operation and the basic direction described with reference to FIG. 5 based on the determination result of the determination unit 80 performed as described above.

具体的には、移動制御部78は、現実空間画像62が示す撮影範囲が変化したと判定され、所定期間内に方向指示操作が行われた場合、現実空間画像62が示す撮影範囲の変化内容に基づいて方向指示操作と基本方向との対応付けを変更し、当該変更後の対応付けと所定期間内に行われた方向指示操作とに基づいて操作対象(例えば、戦車52)を移動させる。   Specifically, the movement control unit 78 determines that the shooting range indicated by the real space image 62 has changed, and when a direction instruction operation is performed within a predetermined period, the change contents of the shooting range indicated by the real space image 62 Based on this, the association between the direction instruction operation and the basic direction is changed, and the operation target (for example, the tank 52) is moved based on the association after the change and the direction instruction operation performed within a predetermined period.

所定期間とは、現時点の所定間隔前から現時点までの間の期間であり、例えば、現実空間画像62が示す撮影範囲が変化したと判定されてから現時点までの期間である。   The predetermined period is a period from before the present predetermined interval to the present time, for example, a period from when it is determined that the imaging range indicated by the real space image 62 has changed to the present time.

現実空間画像62が示す撮影範囲の変化内容とは、現実空間画像62により示される撮影部72の撮影範囲の変わり方であり、例えば、撮影範囲の変化方向又は撮影範囲の変化量である。ここでは、撮影範囲の変化方向に基づいて、方向指示操作と基本方向との対応付けが変更される場合を説明する。   The change content of the shooting range indicated by the real space image 62 is a change in the shooting range of the shooting unit 72 indicated by the real space image 62, for example, a change direction of the shooting range or a change amount of the shooting range. Here, a case will be described in which the association between the direction instruction operation and the basic direction is changed based on the change direction of the shooting range.

撮影範囲の変化方向とは、例えば、現実空間画像62として表れる撮影範囲(即ち、ゲーム画面60に表示される領域)が広がった方向である。別の言い方をすれば、撮影範囲の変化方向とは、CCDカメラ24の撮影範囲が移動した方向であり、CCDカメラ24の位置又は視線方向が変化した方向と同意であり、仮想カメラ58の視野(位置又は視線方向)が変化した方向とも言える。   The change direction of the shooting range is, for example, a direction in which the shooting range that appears as the real space image 62 (that is, the area displayed on the game screen 60) is expanded. In other words, the change direction of the shooting range is the direction in which the shooting range of the CCD camera 24 has moved, and is the same as the direction in which the position or line-of-sight direction of the CCD camera 24 has changed. It can also be said that the (position or line-of-sight direction) has changed.

撮影範囲の変化方向は、ゲーム画面60上に設定される2次元のベクトル(スクリーン座標系のベクトル)で表現されてもよいし、現実空間座標系又は仮想空間座標系の3次元のベクトルで表現されてもよい。ここでは、現実空間画像62が示す撮影範囲の変化方向が、現実空間座標系の3次元のベクトルで表現される場合を説明する。   The change direction of the shooting range may be expressed by a two-dimensional vector (a vector in the screen coordinate system) set on the game screen 60, or by a three-dimensional vector in a real space coordinate system or a virtual space coordinate system. May be. Here, a case will be described in which the change direction of the shooting range indicated by the real space image 62 is expressed by a three-dimensional vector in the real space coordinate system.

現実空間画像62が示す撮影範囲の変化方向は、現実空間画像62の時系列的な変化に基づいて取得される。例えば、ユーザが撮影部72の撮影範囲をユーザから見て左方向に変化させた場合、現実空間画像62の左端部に対応する領域に新たに現実空間が表示されるので、この場合は、現実空間画像62が示す撮影範囲の変化方向は左方向(例えば、XRW軸方向)となる。 The change direction of the shooting range indicated by the real space image 62 is acquired based on the time-series change of the real space image 62. For example, when the user changes the shooting range of the shooting unit 72 to the left as viewed from the user, the real space is newly displayed in the area corresponding to the left end portion of the real space image 62. The change direction of the shooting range indicated by the spatial image 62 is the left direction (for example, the XRW axis direction).

図9は、撮影範囲の変化方向が取得される処理を説明するための図である。図9に示すように、現実空間画像62が示す撮影範囲の変化方向VRCは、現実空間画像62が示す撮影範囲の変化後の撮影部72の視線方向(即ち、実線で示すZRC軸方向)と変化前の撮影部72の視線方向(即ち、破線で示すZRC軸方向)とのベクトル差を示す方向となる。 FIG. 9 is a diagram for explaining processing for acquiring the change direction of the imaging range. As shown in FIG. 9, the change direction V RC of the shooting range indicated by the real space image 62 is the line-of-sight direction of the shooting unit 72 after the change of the shooting range indicated by the real space image 62 (ie, the Z RC axis direction indicated by the solid line). ) and line-of-sight direction of change before the shutter portion 72 (i.e., the direction indicated vector difference between the Z RC axis direction) indicated by a broken line.

例えば、上記のように特定される撮影範囲の変化方向に基づいて、方向指示操作と基本方向との対応付けが変更される。例えば、方向指示操作と、現実空間画像62が示す撮影範囲の変化方向に基づいて定まる方向と、が対応付けられるように変更される。撮影範囲の変化方向に基づいて定まる方向とは、ゲーム画面60において、戦車52の表示位置が現実空間画像62が広がった方向に移動するための方向である。例えば、ユーザが右回転ボタン66dを押下した場合であっても、戦車52が左回転するように、方向指示操作と基本方向との対応付けが変更される。   For example, the association between the direction instruction operation and the basic direction is changed based on the change direction of the shooting range specified as described above. For example, the direction instruction operation and the direction determined based on the change direction of the shooting range indicated by the real space image 62 are changed so as to be associated with each other. The direction determined based on the change direction of the shooting range is a direction for moving the display position of the tank 52 in the direction in which the real space image 62 spreads on the game screen 60. For example, even when the user presses the right rotation button 66d, the association between the direction instruction operation and the basic direction is changed so that the tank 52 rotates to the left.

図10は、変更された方向指示操作と基本方向との対応付けを説明するための図である。図10に示すように、現実空間画像62が示す撮影範囲が変化する前の対応付けと、変化後の対応付けが変更される。例えば、図10のように、ユーザがボタン66のどれを押下しても撮影範囲の変化方向に戦車52が移動するように、方向指示操作と基本方向との対応付けが変更される。撮影範囲の変化方向は、例えば、現実空間座標系の3次元ベクトルで表されるので、このベクトル値が座標変換されることによって、図10に示す対応付けの「変化方向」のベクトルが特定される。   FIG. 10 is a diagram for explaining the association between the changed direction instruction operation and the basic direction. As shown in FIG. 10, the association before the shooting range indicated by the real space image 62 changes and the association after the change are changed. For example, as shown in FIG. 10, the correspondence between the direction instruction operation and the basic direction is changed so that the tank 52 moves in the direction of change of the shooting range regardless of which button 66 the user presses. Since the change direction of the shooting range is represented by, for example, a three-dimensional vector in the real space coordinate system, the vector of the corresponding “change direction” shown in FIG. The

図11は、方向指示操作と基本方向との対応付けが変更された場合に戦車52の位置が制御される様子を示す図である。図11に示すように、ユーザから見て左方向(例えば、XRW軸方向)に現実空間画像62が広がり(広がった領域を62aとして斜線で示す。)、左方向(例えば、XVW軸正方向)又は右方向(例えば、XVW軸負方向)を示す方向指示操作が入力された場合、戦車52が、例えば、現実空間画像62が広がった左方向に移動する。このように戦車52を移動させることによって、現実空間画像62が広がった方向に戦車52を動かすことができる。 FIG. 11 is a diagram illustrating a state in which the position of the tank 52 is controlled when the association between the direction instruction operation and the basic direction is changed. As shown in FIG. 11, the real space image 62 expands in the left direction (for example, the XRW axis direction) as viewed from the user (the expanded area is indicated by hatching as 62a), and the left direction (for example, the X VW axis is positive Direction) or right direction (for example, the negative direction of the XVW axis) is input, the tank 52 moves, for example, to the left in which the real space image 62 spreads. By moving the tank 52 in this way, the tank 52 can be moved in the direction in which the real space image 62 is expanded.

[1−4.携帯端末において実行される処理]
次に、携帯端末10が実行する処理について説明する。図12及び図13は、携帯端末10が実行する処理のうちの、本発明に関連する処理を主に示すフロー図である。制御部12は、例えば、記憶部14に記憶されるプログラムに従って、図12及び図13に示す処理を実行する。例えば、ゲームの開始指示が操作キー部20から入力された場合、図12及び図13に示す処理が実行される。
[1-4. Processing executed in portable terminal]
Next, the process which the portable terminal 10 performs is demonstrated. FIG.12 and FIG.13 is a flowchart which mainly shows the process relevant to this invention among the processes which the portable terminal 10 performs. For example, the control unit 12 executes the processes shown in FIGS. 12 and 13 according to a program stored in the storage unit 14. For example, when a game start instruction is input from the operation key unit 20, the processes shown in FIGS. 12 and 13 are executed.

図12に示すように、まず、制御部12は、CCDカメラ24を起動して、現実空間画像62を表示部18に表示させる(S1)。次いで、制御部12は、主記憶部16にゲーム空間50を生成する(S2)。S2においては、例えば、ゲーム空間50内の各オブジェクトは予め定められた初期位置に配置される。また、S2の段階では、仮想カメラ58はゲーム空間50に配置されないようにしてもよい。   As shown in FIG. 12, the control unit 12 first activates the CCD camera 24 to display the real space image 62 on the display unit 18 (S1). Next, the control unit 12 generates a game space 50 in the main storage unit 16 (S2). In S2, for example, each object in the game space 50 is arranged at a predetermined initial position. Further, the virtual camera 58 may not be arranged in the game space 50 in the stage of S2.

制御部12は、現実空間画像62にマーカ40が含まれるか否かを判定する(S3)。S3においては、例えば、CCDカメラ24より適宜得られる現実空間画像62が参照され、マーカ40の枠42が抽出されるか否かによって、マーカ40が含まれるか否かが判定される。   The control unit 12 determines whether or not the marker 40 is included in the real space image 62 (S3). In S3, for example, the real space image 62 obtained appropriately from the CCD camera 24 is referred to, and whether or not the marker 40 is included is determined based on whether or not the frame 42 of the marker 40 is extracted.

マーカ40が含まれると判定された場合(S3;Y)、制御部12は、マーカ40の枠42内に描かれた模様44と、マーカデータに格納された模様44と、を比較することによって、所定のマーカ40(マーカデータに格納されたマーカ40)が検出されたか否かを判定する(S4)。本実施形態においては、「L字型」のマーカ40が検出されたか否かが判定される。   When it is determined that the marker 40 is included (S3; Y), the control unit 12 compares the pattern 44 drawn in the frame 42 of the marker 40 with the pattern 44 stored in the marker data. Then, it is determined whether or not a predetermined marker 40 (marker 40 stored in the marker data) is detected (S4). In the present embodiment, it is determined whether or not the “L-shaped” marker 40 is detected.

所定のマーカ40が検出されたと判定された場合(S4;Y)、制御部12は、現実空間画像62におけるマーカ40の表示位置を取得する(S5)。S5においては、例えば、マーカ40の枠42の四隅の表示位置が特定される。   When it determines with the predetermined marker 40 having been detected (S4; Y), the control part 12 acquires the display position of the marker 40 in the real space image 62 (S5). In S5, for example, the display positions of the four corners of the frame 42 of the marker 40 are specified.

制御部12は、現実空間画像62におけるマーカ40の大きさと向きを取得する(S6)。S6においては、例えば、S5において特定されたマーカ40の枠42の四隅の位置関係と、マーカデータに格納されたマーカ40の四隅の位置関係と、が比較されることによって、マーカ40の大きさに関する情報が取得される。また例えば、現実空間画像62におけるマーカ40の模様44と、マーカデータに格納された模様44と、のずれに基づいて、マーカ40の向きに関する情報が取得される。   The control unit 12 acquires the size and orientation of the marker 40 in the real space image 62 (S6). In S6, for example, the size of the marker 40 is compared by comparing the positional relationship of the four corners of the frame 42 of the marker 40 specified in S5 with the positional relationship of the four corners of the marker 40 stored in the marker data. Information about is obtained. Further, for example, information related to the orientation of the marker 40 is acquired based on the difference between the pattern 44 of the marker 40 in the real space image 62 and the pattern 44 stored in the marker data.

制御部12は、現実空間画像62におけるマーカ40の位置、大きさ、及び向きに基づいて仮想カメラ58の位置及び視線方向を決定する(S7)。例えば、マーカ40の位置、大きさ、及び向きに基づいて現実空間座標系から現実視点座標系への座標変換行列が算出される。そして、仮想空間座標系に当該座標変換行列を適用することによって、仮想視点座標系の原点OVCの位置及び3軸の向きが決定される。例えば、仮想視点座標系の原点OVCが仮想カメラ58の位置として決定され、ZVC軸方向が仮想カメラ58の視線方向に決定される。 The control unit 12 determines the position and line-of-sight direction of the virtual camera 58 based on the position, size, and orientation of the marker 40 in the real space image 62 (S7). For example, a coordinate transformation matrix from the real space coordinate system to the real viewpoint coordinate system is calculated based on the position, size, and orientation of the marker 40. Then, by applying the coordinate transformation matrix to the virtual space coordinate system, the position of the origin O VC and the direction of the three axes of the virtual viewpoint coordinate system are determined. For example, the origin O VC of the virtual viewpoint coordinate system is determined as the position of the virtual camera 58, and the Z VC axis direction is determined as the viewing direction of the virtual camera 58.

制御部12は、CCDカメラ24により生成される現実空間画像62と、S7において位置及び視線方向が決定された仮想カメラ58からゲーム空間50を見た様子を示す仮想空間画像64と、を合成してゲーム画面60に表示させる(S8)。S7において仮想カメラ58の位置及び視線方向が決定されることによって、現実空間画像62と仮想空間画像64との位置合わせが行われ、ゲーム画面60における戦車52の表示位置が決定されることになる。   The control unit 12 synthesizes the real space image 62 generated by the CCD camera 24 and the virtual space image 64 showing the state in which the game space 50 is viewed from the virtual camera 58 whose position and line-of-sight direction are determined in S7. Is displayed on the game screen 60 (S8). By determining the position and line-of-sight direction of the virtual camera 58 in S7, the physical space image 62 and the virtual space image 64 are aligned, and the display position of the tank 52 on the game screen 60 is determined. .

一方、マーカ40が含まれると判定されない場合(S3;N)、所定のマーカ40が検出されたと判定されない場合(S4;N)、制御部12は、仮想空間画像64をゲーム画面60から消去し、「マーカが検出できません」等の所定のメッセージを表示部18に表示させる(S9)。この場合、ユーザは、CCDカメラ24の視野内にマーカ40が含まれ、かつ、当該マーカ40が検出可能な位置に表示されるように、携帯端末10の位置や向きを変える。   On the other hand, when it is not determined that the marker 40 is included (S3; N), or when it is not determined that the predetermined marker 40 is detected (S4; N), the control unit 12 deletes the virtual space image 64 from the game screen 60. , A predetermined message such as “the marker cannot be detected” is displayed on the display unit 18 (S9). In this case, the user changes the position and orientation of the mobile terminal 10 so that the marker 40 is included in the field of view of the CCD camera 24 and the marker 40 is displayed at a detectable position.

図13に示すように、制御部12は、現実空間画像62が示す撮影範囲が変化したか否かを判定する(S10)。例えば、直近に生成された現実空間画像62と、当該現実空間画像62の所定期間前に生成された現実空間画像62と、がパターンマッチングされることによって、S10の処理が実行される。また例えば、所定期間における現実空間画像62のマーカ40の表示位置の変化が所定距離以上であるか否かが判定されるようにしてもよい。   As shown in FIG. 13, the control unit 12 determines whether or not the shooting range indicated by the real space image 62 has changed (S10). For example, the process of S <b> 10 is executed by pattern matching between the most recently generated real space image 62 and the real space image 62 generated before a predetermined period of the real space image 62. Further, for example, it may be determined whether or not the change in the display position of the marker 40 in the real space image 62 during a predetermined period is a predetermined distance or more.

現実空間画像62が示す撮影範囲が変化したと判定されない場合(S10;N)、制御部12は、戦車52の方向指示操作が入力されたか否かを判定する(S11)。方向指示操作が入力されたと判定された場合(S11;Y)、制御部12は、当該入力された方向指示操作に対応する基本方向に基づいて戦車52を移動させる(S12)。即ち、ユーザにより入力された方向指示操作に対応する基本方向が仮想空間座標系のベクトルに変換され、この変換された方向に戦車52が移動するように、ゲーム空間50の状況が更新される。   When it is not determined that the shooting range indicated by the real space image 62 has changed (S10; N), the control unit 12 determines whether or not a direction instruction operation for the tank 52 has been input (S11). When it is determined that the direction instruction operation is input (S11; Y), the control unit 12 moves the tank 52 based on the basic direction corresponding to the input direction instruction operation (S12). That is, the basic direction corresponding to the direction indicating operation input by the user is converted into a vector in the virtual space coordinate system, and the situation of the game space 50 is updated so that the tank 52 moves in this converted direction.

一方、現実空間画像62が示す撮影範囲が変化したと判定された場合(S10;Y)、制御部12は、所定期間内に戦車52の方向指示操作が入力されたか否かを判定する(S13)。所定期間内に方向指示操作が入力されたと判定された場合(S13;Y)、制御部12は、方向指示操作と基本方向との対応付けを変更する(S14)。   On the other hand, when it is determined that the shooting range indicated by the real space image 62 has changed (S10; Y), the control unit 12 determines whether or not a direction instruction operation for the tank 52 has been input within a predetermined period (S13). ). When it is determined that the direction instruction operation is input within the predetermined period (S13; Y), the control unit 12 changes the association between the direction instruction operation and the basic direction (S14).

S14においては、例えば、複数の方向指示操作の全てが、仮想空間座標系で表される撮影範囲の変化方向をローカル座標系に変換した方向に対応付けられるように、方向指示操作と基本方向との対応付けが変更される。S14において変更された対応付けは、例えば、主記憶部16に一時的に記憶される。   In S14, for example, the direction indication operation and the basic direction are all associated with the direction in which the change direction of the imaging range represented in the virtual space coordinate system is converted into the local coordinate system. Is changed. The association changed in S14 is temporarily stored in the main storage unit 16, for example.

制御部12は、S14で変更された対応付けに基づいて戦車52を移動させる(S15)。S15においては、現実空間画像62が示す撮影範囲の変化方向に戦車52が移動するように、戦車52の位置が制御される。例えば、仮想カメラ58の視野が変化した方向に戦車52が移動する。   The control unit 12 moves the tank 52 based on the association changed in S14 (S15). In S15, the position of the tank 52 is controlled so that the tank 52 moves in the direction of change of the shooting range indicated by the real space image 62. For example, the tank 52 moves in the direction in which the field of view of the virtual camera 58 has changed.

制御部12は、S14において戦車52を移動させると、S13で変更した対応付けを元に戻す(S16)。制御部12は、終了条件を満たすか否かを判定する(S17)。終了条件は、本処理を終了するための予め定められた条件である。例えば、終了条件は、ゲームオーバーの条件や、ゲームの終了指示が入力されたか否か等である。   When the control unit 12 moves the tank 52 in S14, the association changed in S13 is restored (S16). The control unit 12 determines whether or not the end condition is satisfied (S17). The end condition is a predetermined condition for ending this process. For example, the end condition is a game over condition, whether or not a game end instruction is input, and the like.

終了条件を満たすと判定された場合(S17;Y)、処理は終了する。終了条件を満たすと判定されない場合(S17;N)、処理はS3に戻る。   If it is determined that the end condition is satisfied (S17; Y), the process ends. If it is not determined that the end condition is satisfied (S17; N), the process returns to S3.

以上説明した携帯端末10によれば、現実空間画像62が示す撮影範囲が変化し、所定期間内に方向指示操作が行われた場合、方向指示操作と基本方向との対応付けが変更されることによって、現実空間画像62が広がった方向に戦車52を移動させることができる。即ち、戦車52がゲーム画面60から外れることを防止し、ユーザの操作補助をすることができる。   According to the mobile terminal 10 described above, when the shooting range indicated by the real space image 62 changes and the direction instruction operation is performed within a predetermined period, the association between the direction instruction operation and the basic direction is changed. Thus, the tank 52 can be moved in the direction in which the real space image 62 spreads. That is, it is possible to prevent the tank 52 from coming off the game screen 60 and assist the user in operation.

例えば、ジャイロセンサや加速度センサの検出信号に基づいて携帯端末10が傾いた方向に戦車52を移動させるような場合は、仮想カメラ58の視野から戦車52が外れてしまうので、戦車52が見えなくなってしまう可能性がある。しかし、実施形態の携帯端末10は、現実空間画像62が広がった方向に戦車52を移動させるので、ゲーム画面60の表示領域から戦車52がはみ出てしまうような誤操作をユーザが行った場合であっても、広がったスペースへ戦車52を移動させ、ゲーム画面60内におさまるように移動制御を行うことができ、ユーザの操作補助を効果的に行うことができる。   For example, when the tank 52 is moved in the direction in which the mobile terminal 10 is tilted based on the detection signal of the gyro sensor or the acceleration sensor, the tank 52 is removed from the visual field of the virtual camera 58, so the tank 52 becomes invisible. There is a possibility that. However, since the mobile terminal 10 of the embodiment moves the tank 52 in the direction in which the real space image 62 spreads, the user has made an erroneous operation that would cause the tank 52 to protrude from the display area of the game screen 60. However, the tank 52 can be moved to the expanded space and the movement control can be performed so as to be within the game screen 60, and the user's operation assistance can be effectively performed.

[2.実施形態2]
次に、本発明に係る携帯端末10の別の実施形態について説明する。実施形態1においては、現実空間画像62が示す撮影範囲の変化方向に基づいて方向指示操作と基本方向との対応付けが変更される場合を説明した。実施形態2においては、戦車52の表示位置に基づいて対応付けを変更する必要があるか否かを判定する。つまり、方向指示操作と基本方向との対応付けを変更する必要が低い状況においては、対応付けを変更せずに、元の対応付けのままユーザに方向指示操作を行わせる。
[2. Second Embodiment]
Next, another embodiment of the mobile terminal 10 according to the present invention will be described. In the first embodiment, the case where the association between the direction instruction operation and the basic direction is changed based on the change direction of the shooting range indicated by the real space image 62 has been described. In the second embodiment, it is determined whether or not the association needs to be changed based on the display position of the tank 52. That is, in a situation where it is not necessary to change the association between the direction instruction operation and the basic direction, the user performs the direction instruction operation with the original association without changing the association.

実施形態2の携帯端末10のハードウェア構成及び機能ブロックは、実施形態1と同様である。   The hardware configuration and functional blocks of the mobile terminal 10 of the second embodiment are the same as those of the first embodiment.

実施形態2の移動制御部78は、現実空間における現実空間画像62が示す撮影範囲と、仮想空間における操作対象(例えば、戦車52)の位置と、の位置関係の変化が所定の条件を満たす場合、方向指示操作と基本方向との対応付けを変更する。所定の条件とは、現実空間画像62が示す撮影範囲と戦車52の位置との位置関係の変化に関する条件である。   The movement control unit 78 according to the second embodiment, when a change in the positional relationship between the shooting range indicated by the real space image 62 in the real space and the position of the operation target (for example, the tank 52) in the virtual space satisfies a predetermined condition. The association between the direction instruction operation and the basic direction is changed. The predetermined condition is a condition relating to a change in the positional relationship between the shooting range indicated by the real space image 62 and the position of the tank 52.

携帯端末10においては、CCDカメラ22の撮影範囲と仮想カメラ58の視点とは対応しているので、現実空間画像62が示す撮影範囲と戦車52の位置との位置関係は、ゲーム画面60における戦車52の表示位置を示すものであり、例えば、ゲーム画面60の中心点と戦車52の表示位置との位置関係と同意である。   In the portable terminal 10, the shooting range of the CCD camera 22 and the viewpoint of the virtual camera 58 correspond to each other, so that the positional relationship between the shooting range indicated by the real space image 62 and the position of the tank 52 is the tank on the game screen 60. 52 indicates the display position, for example, the positional relationship and agreement between the center point of the game screen 60 and the display position of the tank 52.

例えば、ゲーム画面60における戦車52の表示位置の変化が所定の条件を満たすか否かに応じて、方向指示操作と基本方向との対応付けが変更されるか否かが決定される。   For example, depending on whether or not the change in the display position of the tank 52 on the game screen 60 satisfies a predetermined condition, whether or not the association between the direction instruction operation and the basic direction is changed is determined.

図14は、ゲーム画面60における戦車52の表示位置を説明するための図である。例えば、ゲーム画面60の表示領域が複数に分割された各領域(中央領域60a、左端部領域60b、上端部領域60c、右端部領域60d、下端部領域60e)の何れに戦車52が表示されているか、によって方向指示操作と基本方向との対応付けが変更される。   FIG. 14 is a diagram for explaining the display position of the tank 52 on the game screen 60. For example, the tank 52 is displayed in any of the areas (the center area 60a, the left end area 60b, the upper end area 60c, the right end area 60d, and the lower end area 60e) obtained by dividing the display area of the game screen 60 into a plurality of areas. The correspondence between the direction indicating operation and the basic direction is changed.

これら戦車52の表示位置が、これら5つの領域をどのようにまたがって変化したか否かによって、方向指示操作と基本方向との対応付けが変更されるか否かが決定される。なお、図14に示すX軸とY軸は、スクリーン座標系の座標軸である。上記の各領域は、スクリーン座標系により定義される。 Whether or not the association between the direction instruction operation and the basic direction is changed is determined depending on how the display positions of the tanks 52 have changed across these five areas. Incidentally, X S axis and Y S axis shown in FIG. 14 is a coordinate axis of the screen coordinate system. Each of the above areas is defined by a screen coordinate system.

図15は、方向指示操作と基本方向との対応付けが変更されるための条件を示す図である。図15に示すように、例えば、現実空間画像62が変化する前後で、ゲーム画面60において戦車52が表示されている領域の変化が満たす条件に応じて、方向指示操作と基本方向との対応付けが変更されるか否かが決定される。   FIG. 15 is a diagram illustrating a condition for changing the association between the direction instruction operation and the basic direction. As shown in FIG. 15, for example, before and after the real space image 62 changes, the direction instruction operation and the basic direction are associated with each other according to the condition that the change of the area where the tank 52 is displayed on the game screen 60 is satisfied. It is determined whether or not is changed.

例えば、現実空間画像62が変化することによって、中央領域60aから左端部領域60b〜下端部領域60eの何れかに戦車52の表示位置が移動した場合、戦車52がゲーム画面60から外れてしまいそうになるので、方向指示操作と基本方向との対応付けが変更されることによって、ユーザの操作補助が行われる。   For example, when the display position of the tank 52 moves from the central area 60a to any one of the left end area 60b to the lower end area 60e due to the change in the real space image 62, the tank 52 is likely to be detached from the game screen 60. Therefore, the user's operation assistance is performed by changing the association between the direction instruction operation and the basic direction.

また例えば、現実空間画像62が変化したが、中央領域60a内に戦車52の表示位置が留まっている場合、戦車52がゲーム画面60から外れる可能性は少ないので、方向指示操作と基本方向との対応付けは変更されない。   Further, for example, when the real space image 62 has changed, but the display position of the tank 52 remains in the central area 60a, the tank 52 is unlikely to be removed from the game screen 60, so the direction indication operation and the basic direction The association is not changed.

また例えば、現実空間画像62が変化することによって、左端部領域60b〜下端部領域60eの何れかから中央領域60aに戦車52の表示位置が移動した場合、戦車52がゲーム画面60から外れる可能性は少ないので、方向指示操作と基本方向との対応付けは変更されない。   Further, for example, when the display position of the tank 52 moves from any one of the left end region 60b to the lower end region 60e to the central region 60a due to the change in the real space image 62, the tank 52 may be removed from the game screen 60. Therefore, the association between the direction instruction operation and the basic direction is not changed.

また例えば、現実空間画像62が変化したが、左端部領域60b〜下端部領域60eの何れかの内部に戦車52の表示位置が留まっている場合、撮影範囲がそれほど変化していないため現実空間画像62戦車52がゲーム画面60から外れる可能性は少ないので、方向指示操作と基本方向との対応付けは変更されない。   Further, for example, when the real space image 62 has changed, but the display position of the tank 52 remains in any one of the left end region 60b to the lower end region 60e, the shooting range has not changed so much, so the real space image Since there is little possibility that the 62 tank 52 will come off the game screen 60, the association between the direction instruction operation and the basic direction is not changed.

また例えば、現実空間画像62が変化することによって、左端部領域60b〜下端部領域60eの何れかから他の左端部領域60b〜下端部領域60eに戦車52の表示位置が移動した場合、撮影範囲が大きく移動して戦車52がゲーム画面60から外れてしまいそうになるので、方向指示操作と基本方向との対応付けが変更されることによって、ユーザの操作補助が行われる。   Further, for example, when the display position of the tank 52 is moved from any one of the left end region 60b to the lower end region 60e to the other left end region 60b to the lower end region 60e due to the change in the real space image 62, the imaging range Moves so much that the tank 52 is likely to be detached from the game screen 60, so that the user's operation assistance is performed by changing the association between the direction instruction operation and the basic direction.

実施形態2においては、図12及び図13と同様の処理が実行されるが、S14の処理が実行されるにあたり、現実空間における現実空間画像62が示す撮影範囲と、仮想空間における戦車52の位置と、の位置関係の変化が所定の条件を満たすか否かが判定される。   In the second embodiment, the same processing as in FIG. 12 and FIG. 13 is executed, but when the processing of S14 is executed, the shooting range indicated by the real space image 62 in the real space and the position of the tank 52 in the virtual space It is determined whether or not the change in the positional relationship satisfies a predetermined condition.

例えば、対応付けを変更しないとされている条件を満たしている場合は、S14〜S16の処理に代えてS12の処理が実行され、方向指示操作と基本方向との対応付けが変更されることなく、戦車52の位置が制御される。一方、例えば、対応付けを変更するとされている条件を満たしている場合は、S14〜S16の処理が実行される。   For example, when the condition that the association is not changed is satisfied, the processing of S12 is executed instead of the processing of S14 to S16, and the association between the direction instruction operation and the basic direction is not changed. The position of the tank 52 is controlled. On the other hand, for example, when the condition for changing the association is satisfied, the processes of S14 to S16 are executed.

実施形態2の携帯端末10によれば、戦車52の表示位置の変化が満たす条件に基づいて方向指示操作と基本方向との対応付けを変更するか否かが決定される。したがって、例えば、戦車52がゲーム画面60からはみ出る可能性が低い状況やユーザが誤入力をする可能性が低い状況においては、対応付けを変更するとかえってユーザが戸惑ってしまう場合があるので、このような状況においては対応付けを変更しないようにすることができる。   According to the mobile terminal 10 of the second embodiment, whether to change the association between the direction instruction operation and the basic direction is determined based on the condition that the change in the display position of the tank 52 satisfies. Therefore, for example, in a situation where the tank 52 is unlikely to protrude from the game screen 60 or a situation where the user is unlikely to make an erroneous input, the user may be confused if the association is changed. In such a situation, the association can be prevented from being changed.

[3.実施形態3]
次に、本発明に係る携帯端末10の別の実施形態について説明する。実施形態1及び実施形態2においては、全ての方向指示操作に対応付けられた基本方向が同じ方向に変更される場合を説明した。即ち、ユーザがボタン66のどれを押下した場合であっても、現実空間画像62が広がった方向に戦車52が移動する場合を説明した。基本方向との対応付けが変更されるのは全ての方向指示操作ではなく一部の方向指示操作のみであってもよい。
[3. Embodiment 3]
Next, another embodiment of the mobile terminal 10 according to the present invention will be described. In the first embodiment and the second embodiment, the case has been described in which the basic direction associated with all the direction instruction operations is changed to the same direction. That is, the case where the tank 52 moves in the direction in which the real space image 62 spreads regardless of which button 66 the user presses has been described. The association with the basic direction may be changed not only for all direction indicating operations but only for some direction indicating operations.

実施形態3の携帯端末10のハードウェア構成及び機能ブロックは、実施形態1と同様である。   The hardware configuration and functional blocks of the mobile terminal 10 of the third embodiment are the same as those of the first embodiment.

実施形態3の移動制御部78は、所定期間内に行われた方向指示操作に対応する基本方向に基づいて定まる操作対象(例えば、戦車52)の移動方向と、現実空間画像62が示す撮影範囲の変化方向と、のずれを判定する。例えば、所定期間内に行われた方向指示操作に対応付けられた基本方向が、仮想空間座標系のベクトル方向に変換され、戦車52の移動方向が特定される。なお、この移動方向に戦車52が移動するとは限らず、ここで特定される移動方向は、戦車52が移動しようとしている方向といえる。   The movement control unit 78 of the third embodiment includes the moving direction of the operation target (for example, the tank 52) determined based on the basic direction corresponding to the direction instruction operation performed within a predetermined period, and the shooting range indicated by the real space image 62. The change direction and the deviation are determined. For example, the basic direction associated with the direction indicating operation performed within a predetermined period is converted into the vector direction of the virtual space coordinate system, and the moving direction of the tank 52 is specified. Note that the tank 52 does not necessarily move in this movement direction, and the movement direction specified here can be said to be the direction in which the tank 52 is about to move.

戦車52の移動方向と、現実空間画像62が示す撮影範囲の変化方向(即ち、仮想カメラ58の視野の変化方向と同意。)と、が比較される。ここでは、両者の方向のずれとして、2つのベクトルの余弦(cosθ)が算出される。この余弦に応じて、方向指示操作と基本方向との対応付けを変更させるか否かが決定される。   The moving direction of the tank 52 is compared with the changing direction of the shooting range indicated by the real space image 62 (that is, the same as the changing direction of the visual field of the virtual camera 58). Here, the cosine (cos θ) of the two vectors is calculated as the deviation between the two directions. Whether or not to change the association between the direction instruction operation and the basic direction is determined according to the cosine.

図16は、実施形態3の処理を説明するための図である。図16は、現実空間画像62が左方向に広がり、方向指示操作としてボタン66aが押下された場合を示す。変更前の対応付けに基づいて定まる戦車52の移動方向VLW(即ち、戦車52の正面方向)と、撮影範囲の変化方向VRCと、の両者のベクトルの余弦が比較的小さい場合は、両者のベクトルが互いに反対方向を向いていることを示している。 FIG. 16 is a diagram for explaining the processing of the third embodiment. FIG. 16 shows a case where the real space image 62 spreads leftward and the button 66a is pressed as a direction instruction operation. If the cosines of the vectors of the movement direction V LW of the tank 52 determined based on the association before the change (that is, the front direction of the tank 52) and the shooting direction change direction V RC are relatively small, These vectors are directed in opposite directions.

即ち、ユーザが、現実空間画像62が狭まった方向に戦車52を移動させようとしており、ユーザが誤入力をしている可能性があるため、この場合は、方向指示操作と基本方向との対応付けが変更される。   That is, the user is trying to move the tank 52 in the direction in which the real space image 62 is narrowed, and the user may have made an incorrect input. In this case, the correspondence between the direction instruction operation and the basic direction The attachment is changed.

一方、変更前の対応付けに基づいて定まる戦車52の移動方向と、撮影範囲の変化方向と、の両者のベクトルの余弦が比較的大きい場合は、両者のベクトルが互いに同じ方向を向いていることを示している。即ち、ユーザが、現実空間画像62が広がった方向に戦車52を移動させようとしているので、方向指示操作と基本方向との対応付けが変更されない。   On the other hand, if the cosines of the vectors of the movement direction of the tank 52 determined based on the association before the change and the change direction of the shooting range are relatively large, the vectors must be in the same direction. Is shown. That is, since the user tries to move the tank 52 in the direction in which the real space image 62 spreads, the association between the direction instruction operation and the basic direction is not changed.

実施形態3の移動制御部78は、ずれが基準範囲である場合、ユーザにより行われた方向指示操作に対応する基本方向に基づいて操作対象(例えば、戦車52)を移動させる。例えば、余弦が基準範囲である場合(例えば、cosθ>−0.5)、方向指示操作と基本方向との対応付けの変更処理が制限され、元の対応付けのまま戦車52を移動させる。この場合、現実空間画像62が狭くなった方向に戦車52を移動させようとしている訳ではないので、対応付けを変更する必要性が低いため、上記のように、対応付けが変更されない。   When the deviation is in the reference range, the movement control unit 78 of the third embodiment moves the operation target (for example, the tank 52) based on the basic direction corresponding to the direction instruction operation performed by the user. For example, when the cosine is in the reference range (for example, cos θ> −0.5), the process for changing the association between the direction instruction operation and the basic direction is restricted, and the tank 52 is moved with the original association. In this case, since the tank 52 is not moved in the direction in which the real space image 62 is narrowed, it is not necessary to change the association, so the association is not changed as described above.

また、実施形態3の移動制御部78は、ずれが基準範囲でない場合、現実空間画像62が示す撮影範囲の変化内容に基づいて方向指示操作と基本方向との対応付けを変更し、当該変更後の対応付けと所定期間内に行われた方向指示操作とに基づいて操作対象(例えば、戦車52)を移動させる。例えば、余弦が基準範囲でない場合(例えば、cosθ≦−0.5)、方向指示操作と基本方向との対応付けの変更処理が行われる。この場合、現実空間画像62が狭くなった方向に戦車52を移動させようとしているため、対応付けを変更して現実空間画像62が広がった方向に戦車52を移動させる。   In addition, when the deviation is not the reference range, the movement control unit 78 of the third embodiment changes the association between the direction instruction operation and the basic direction based on the change content of the shooting range indicated by the real space image 62, and after the change. The operation target (for example, the tank 52) is moved based on the association and the direction instruction operation performed within a predetermined period. For example, when the cosine is not in the reference range (for example, cos θ ≦ −0.5), a process for changing the association between the direction instruction operation and the basic direction is performed. In this case, since the tank 52 is to be moved in the direction in which the real space image 62 is narrowed, the association is changed and the tank 52 is moved in the direction in which the real space image 62 is widened.

実施形態3においては、図12及び図13と同様の処理が実行されるが、S14の処理が実行されるにあたり、所定期間内に行われた方向指示操作に対応する基本方向に基づいて定まる戦車52の移動方向と、現実空間画像62が示す撮影範囲の変化方向と、のずれが判定される。ずれが所定範囲であれば、処理はS12に移行する。ずれが所定範囲でなければ、処理はS14に移行する。   In the third embodiment, the same processing as in FIG. 12 and FIG. 13 is executed, but the tank determined based on the basic direction corresponding to the direction indicating operation performed within a predetermined period when the processing of S14 is executed. A shift between the moving direction of 52 and the changing direction of the shooting range indicated by the real space image 62 is determined. If the deviation is within the predetermined range, the process proceeds to S12. If the deviation is not within the predetermined range, the process proceeds to S14.

実施形態3の携帯端末10によれば、所定期間内に行われた方向指示操作に対応する基本方向に基づいて定まる戦車52の移動方向と、現実空間画像62が示す撮影範囲の変化方向と、のずれに応じて、方向指示操作と基本方向との対応付けを変更するか否かが決定される。例えば、過度に操作補助が行われるとかえってユーザが戸惑ってしまう場合があるので、現実空間画像62が狭まった方向に戦車52を移動させようとしている場合以外には、対応付けを変更しないようにすることによって、ユーザに戸惑わせることなく適度な操作補助を提供することができる。   According to the mobile terminal 10 of the third embodiment, the moving direction of the tank 52 determined based on the basic direction corresponding to the direction indicating operation performed within a predetermined period, the changing direction of the shooting range indicated by the real space image 62, Whether or not to change the association between the direction instruction operation and the basic direction is determined according to the deviation. For example, since the user may be confused if the operation assistance is excessively performed, the association should not be changed unless the tank 52 is moved in the direction in which the real space image 62 is narrowed. By doing so, moderate operation assistance can be provided without being confused by the user.

[4.変形例]
なお、本発明は、以上に説明した実施の形態に限定されるものではない。本発明の趣旨を逸脱しない範囲で、適宜変更可能である。
[4. Modified example]
The present invention is not limited to the embodiment described above. Modifications can be made as appropriate without departing from the spirit of the present invention.

(1)例えば、上記実施形態においては、現実空間画像62が示す撮影範囲の変化方向が、現実空間座標系の3次元のベクトルで表される場合を説明したが、この変化方向は、ゲーム画面60上に設定される2次元のベクトル(スクリーン座標系のベクトル)で表されてもよい。この場合、例えば、現実空間画像62が広がった画素が配置されている方向が、撮影範囲の変化方向として取得される。   (1) For example, in the above-described embodiment, the case where the change direction of the shooting range indicated by the real space image 62 is represented by a three-dimensional vector in the real space coordinate system has been described. 60 may be represented by a two-dimensional vector (a vector in the screen coordinate system) set on 60. In this case, for example, the direction in which the pixels in which the real space image 62 is spread is acquired as the change direction of the shooting range.

この場合、撮影範囲の変化方向を示す2次元のベクトルを、S7で算出した座標変換行列で逆変換を行うことによって、ゲーム空間50において戦車52を移動させるべき方向(仮想空間座標系における3次元ベクトル)が特定される。この方向に戦車52が移動するように、方向指示操作と基本方向との対応付けが変更されるようにすればよい。   In this case, the two-dimensional vector indicating the change direction of the shooting range is inversely transformed with the coordinate transformation matrix calculated in S7, thereby moving the tank 52 in the game space 50 (three-dimensional in the virtual space coordinate system). Vector) is specified. The association between the direction instruction operation and the basic direction may be changed so that the tank 52 moves in this direction.

(2)また例えば、方向指示操作に対応する基本方向が、戦車52を基準とするキャラクタ座標系で表現される場合を説明したが、基本方向は、仮想空間座標系で表現されるようにしてもよい。基本方向は、仮想視点座標系と異なる座標系で定義されるようにすればよい。なお、基本方向を仮想視点座標系で表現するようにしてもよい。   (2) For example, the case where the basic direction corresponding to the direction instruction operation is expressed in the character coordinate system based on the tank 52 has been described. However, the basic direction is expressed in the virtual space coordinate system. Also good. The basic direction may be defined in a coordinate system different from the virtual viewpoint coordinate system. Note that the basic direction may be expressed in a virtual viewpoint coordinate system.

(3)また例えば、実施形態においては、水平面上を戦車52が移動する場合を説明したが、ユーザの操作対象が移動する範囲は、実施形態の例に限られない。例えば、操作対象は、ボールや鳥のようなものであってもよく、ユーザの操作によって仮想3次元空間を垂直方向に移動するようにしてもよい。   (3) For example, in the embodiment, the case where the tank 52 moves on the horizontal plane has been described. However, the range in which the operation target of the user moves is not limited to the example of the embodiment. For example, the operation target may be a ball or a bird, and the virtual three-dimensional space may be moved in the vertical direction by a user operation.

(4)また例えば、方向指示操作と基本方向とを4つとして説明したが、方向指示操作と基本方向との数はこれに限られない。例えば、ユーザが8つの方向指示操作を入力できるようにしてもよい。   (4) Moreover, for example, although the direction instruction operation and the basic direction are described as four, the number of the direction instruction operation and the basic direction is not limited to this. For example, the user may be allowed to input eight direction instruction operations.

(5)また例えば、実施形態においては、現実空間画像62の変化方向に基づいて対応付けが変更される場合を説明したが、現実空間画像62の変化量に基づいて対応付けが変更されるようにしてもよい。例えば、現実空間画像62の変化量が所定範囲であるか否かに基づいて、方向指示操作に対応付けられる方向が異なるようにしてもよい。   (5) For example, in the embodiment, the case where the association is changed based on the change direction of the real space image 62 has been described. However, the association is changed based on the change amount of the real space image 62. It may be. For example, the direction associated with the direction instruction operation may be different based on whether or not the change amount of the real space image 62 is within a predetermined range.

(6)また例えば、実行中のゲームの状況に応じて、方向指示操作に対応付けられる基本方向が異なるようにしてもよい。例えば、戦車52の残り体力が多い場合は、現実空間画像62が示す撮影範囲の変化方向にいる敵56を移動方向としてもよいし、戦車の残り体力が少ない場合は、現実空間画像62が示す撮影範囲の変化方向にある空きスペースの方向を移動方向とし、戦車52を退避させるようにしてもよい。   (6) Further, for example, the basic direction associated with the direction instruction operation may be different depending on the state of the game being executed. For example, when the remaining physical strength of the tank 52 is large, the enemy 56 in the direction of change of the shooting range indicated by the real space image 62 may be set as the moving direction, and when the remaining physical strength of the tank is small, the real space image 62 indicates. The direction of the empty space in the direction of change of the shooting range may be the moving direction, and the tank 52 may be retracted.

(7)また例えば、戦車52の移動速度、移動ルート、戦車52の向き、又は戦車52の姿勢が、現実空間画像62が示す撮影範囲の変化方向に基づいて決定されるようにしてもよい。   (7) Further, for example, the moving speed of the tank 52, the moving route, the direction of the tank 52, or the posture of the tank 52 may be determined based on the direction of change of the shooting range indicated by the real space image 62.

例えば、戦車52の移動速度が、戦車52の現在位置とゲーム空間50に配置されたオブジェクトの位置との位置関係と、現実空間画像62が示す撮影範囲の変化方向と、に基づいて決定される。例えば、戦車52の現在位置と、現実空間画像62が示す撮影範囲の変化方向にいる敵56の位置とが離れているほど、戦車52の移動速度が速くなる。また例えば、現実空間画像62が示す撮影範囲の変化量が大きいほど、戦車52の移動速度が速くなるようにしてもよい。   For example, the moving speed of the tank 52 is determined based on the positional relationship between the current position of the tank 52 and the position of the object placed in the game space 50 and the direction of change of the shooting range indicated by the real space image 62. . For example, the moving speed of the tank 52 increases as the current position of the tank 52 and the position of the enemy 56 in the direction of change of the shooting range indicated by the real space image 62 increase. Further, for example, the moving speed of the tank 52 may be increased as the amount of change in the shooting range indicated by the real space image 62 is larger.

また例えば、戦車52の移動ルートが、戦車52の現在位置とゲーム空間50に配置されたオブジェクトの位置との位置関係と、現実空間画像62が示す撮影範囲の変化方向と、に基づいて決定される。例えば、戦車52が、現実空間画像62が示す撮影範囲の変化方向にいる敵56と衝突しないように、移動ルートが決定される。   Further, for example, the movement route of the tank 52 is determined based on the positional relationship between the current position of the tank 52 and the position of the object placed in the game space 50 and the change direction of the shooting range indicated by the real space image 62. The For example, the movement route is determined so that the tank 52 does not collide with the enemy 56 in the direction of change of the shooting range indicated by the real space image 62.

また例えば、戦車52の向き又は姿勢が、戦車52の現在位置とゲーム空間50に配置されたオブジェクトの位置との位置関係と、現実空間画像62が示す撮影範囲の変化方向と、に基づいて決定される。例えば、戦車52の正面が、現実空間画像62が示す撮影範囲の変化方向にいる敵56の方向を向くように、戦車52の向き又は姿勢が決定される。   Further, for example, the direction or posture of the tank 52 is determined based on the positional relationship between the current position of the tank 52 and the position of the object placed in the game space 50 and the direction of change of the shooting range indicated by the real space image 62. Is done. For example, the orientation or posture of the tank 52 is determined so that the front of the tank 52 faces the enemy 56 in the direction of change of the shooting range indicated by the real space image 62.

(8)また例えば、ユーザに拡張現実を提供する方法として、マーカ40を用いた方法を例に挙げて説明したが、拡張現実を手供する方法は、上記の例に限られない。ユーザに拡張現実を提供する方法自体は、他にも公知の種々の手法が適用可能であり、例えば、下記の方法を適用することができる。   (8) For example, as a method of providing augmented reality to the user, the method using the marker 40 has been described as an example, but the method of providing augmented reality is not limited to the above example. Various other known methods can be applied to the method of providing augmented reality to the user. For example, the following method can be applied.

(8−1)例えば、マーカ40にかえて可視光を発する物体(例えば、LED)が検出対象として用いられるようにしてもよい。即ち、LED等を用いた可視光をCCDカメラ24で撮影することによって、拡張現実が提供されるようにしてもよい。可視光を用いて拡張現実が提供される方法としては、例えば、下記の2つの方法がある。   (8-1) For example, an object (for example, LED) that emits visible light instead of the marker 40 may be used as a detection target. That is, augmented reality may be provided by photographing visible light using an LED or the like with the CCD camera 24. As a method for providing augmented reality using visible light, for example, there are the following two methods.

まず、第1の方法としては、LEDを所定の法則に基づいて並べることによって、実施形態のようにマーカ40を用いた方法と同様の方法で座標変換行列を算出する方法が挙げられる。この場合、例えば、マーカ40の枠42の四隅の位置にLEDを配置する。例えば、CCDカメラ24によりこれら4つのLEDを撮影し、LEDの発光位置のずれ(歪み)が検出されることによって、CCDカメラ24とLEDとの位置関係が取得される。即ち、座標変換行列が取得される。以降の処理は、実施形態と同様であるので説明を省略する。   First, as a first method, there is a method of calculating a coordinate transformation matrix by a method similar to the method using the marker 40 as in the embodiment by arranging LEDs based on a predetermined rule. In this case, for example, LEDs are arranged at the four corner positions of the frame 42 of the marker 40. For example, these four LEDs are photographed by the CCD camera 24, and a positional relationship between the CCD camera 24 and the LEDs is acquired by detecting a deviation (distortion) in the light emission position of the LEDs. That is, a coordinate transformation matrix is acquired. Subsequent processing is the same as that of the embodiment, and thus description thereof is omitted.

また、第2の方法として、LEDの点灯と消灯が繰り返えされることによって、所定のデジタルデータを疑似的に表現する方法が挙げられる。例えば、LEDが点灯している場合には「1」とし、LEDが消灯している場合には「0」とする。LEDを連続撮影して得られる現実空間画像に基づいて得られるデジタルデータが、LEDの位置、発光方向を示すように、LEDの点灯と消灯を制御することによって、実施形態と同様の座標変換行列が取得されるようにしてもよい。以降の処理は、実施形態と同様であるので説明を省略する。   Further, as a second method, there is a method of representing predetermined digital data in a pseudo manner by repeatedly turning on and off the LED. For example, “1” is set when the LED is turned on, and “0” is set when the LED is turned off. A coordinate transformation matrix similar to that of the embodiment is achieved by controlling the lighting and extinguishing of the LED so that the digital data obtained based on the real space image obtained by continuously photographing the LED indicates the position and light emission direction of the LED. May be acquired. Subsequent processing is the same as that of the embodiment, and thus description thereof is omitted.

(8−2)また例えば、現実空間にマーカ40を配置せずに、現実空間画像62に含まれる物体から特徴点を抽出することによって、拡張現実が提供されるようにしてもよい。即ち、いわゆるマーカレス方式の拡張現実が採用されるようにしてもよい。この場合、現実空間に配置される物体(又は、その特徴点)が、検出対象となる。   (8-2) Further, for example, augmented reality may be provided by extracting feature points from an object included in the real space image 62 without arranging the marker 40 in the real space. That is, a so-called markerless augmented reality may be adopted. In this case, an object (or a feature point thereof) arranged in the real space is a detection target.

図17は、マーカレス方式の拡張現実を説明するための図である。図17に示すように、例えば、現実空間に配置された物体の特徴点(例えば、机の輪郭やコップの縁)を、公知の特徴点抽出法(例えば、画像マッチングを用いたコーナー検出法等)により抽出する。例えば、現実空間に配置された机の輪郭を特徴点Q〜Qとし、机の接地点を特徴点Q〜Qとする。 FIG. 17 is a diagram for explaining the markerless augmented reality. As shown in FIG. 17, for example, feature points of an object arranged in the real space (for example, the contour of a desk or the edge of a cup) are extracted from a known feature point extraction method (for example, a corner detection method using image matching). ). For example, the contour of a desk placed in the real space is set as feature points Q 1 to Q 4, and the ground point of the desk is set as feature points Q 5 to Q 8 .

CCDカメラ24の位置又は視線方向が変化する場合、この特徴点Q〜Qの位置変化(変化量及び変化方向)をトラッキングすることによって、CCDカメラ24の位置と視線方向が算出される。CCDカメラ24の位置と視線方向が算出された後は、実施形態と同様に座標変換行列が算出されることによって、拡張現実が提供される。 When the position or line-of-sight direction of the CCD camera 24 changes, the position and line-of-sight direction of the CCD camera 24 are calculated by tracking the position change (change amount and change direction) of the feature points Q 1 to Q 8 . After the position and line-of-sight direction of the CCD camera 24 are calculated, augmented reality is provided by calculating a coordinate transformation matrix in the same manner as in the embodiment.

(8−3)また例えば、センサ部26を用いることによって、マーカ40を用いずに拡張現実が提供されるようにしてもよい。変形例(8−3)においては、現実空間における撮影部72(例えば、CCDカメラ24)の位置、向き、及び姿勢を検出する装置検出手段が、制御部12及びセンサ部26を主として実現される。   (8-3) For example, by using the sensor unit 26, augmented reality may be provided without using the marker 40. In the modified example (8-3), the device detection unit that detects the position, orientation, and orientation of the photographing unit 72 (for example, the CCD camera 24) in the real space is realized mainly by the control unit 12 and the sensor unit 26. .

例えば、センサ部26が、GPSセンサ、電子コンパス(地磁気センサ)、及びジャイロセンサを含んで構成される場合、例えば、GPSセンサから得られる信号に基づいてCCDカメラ24の現実空間における位置が取得される。また、電子コンパスから得られる信号に基づいてCCDカメラ24の向きが取得される。また、ジャイロセンサにより得られる信号に基づいてCCDカメラ24の姿勢が取得される。   For example, when the sensor unit 26 includes a GPS sensor, an electronic compass (geomagnetic sensor), and a gyro sensor, for example, the position of the CCD camera 24 in the real space is acquired based on a signal obtained from the GPS sensor. The Further, the orientation of the CCD camera 24 is acquired based on a signal obtained from the electronic compass. Further, the attitude of the CCD camera 24 is acquired based on a signal obtained by the gyro sensor.

変形例(8−3)の表示制御部74は、装置検出手段の検出結果(例えば、現実空間における携帯端末10の位置、向き、及び姿勢)に基づいて、現実空間画像62と仮想空間画像64との位置合わせ及び合成を行う。   The display control unit 74 according to the modified example (8-3) uses the real space image 62 and the virtual space image 64 based on the detection result (for example, the position, orientation, and orientation of the mobile terminal 10 in the real space). And alignment with.

例えば、表示制御部74は、現実空間におけるCCDカメラ24の位置、向き、及び姿勢に基づいて、現実空間におけるCCDカメラ24の位置と視線方向とを算出する。即ち、現実視点座標系の原点OVCと3軸の向きが特定される。そして、現実空間座標系(ここではマーカ40がないので、例えば、現実空間の任意の位置(例えば、GPSセンサの原点)に設定される座標系)と、現実視点座標系と、のずれに基づいて、実施形態と同様に座標変換行列が算出される。 For example, the display control unit 74 calculates the position and line-of-sight direction of the CCD camera 24 in the real space based on the position, orientation, and orientation of the CCD camera 24 in the real space. That is, the origin O VC of the real viewpoint coordinate system and the direction of the three axes are specified. Based on the difference between the real space coordinate system (there is no marker 40 here, for example, the coordinate system set at an arbitrary position in the real space (for example, the origin of the GPS sensor)) and the real viewpoint coordinate system. Thus, a coordinate transformation matrix is calculated as in the embodiment.

また、変形例(8−3)においては、図11と同様の処理が実行されるが、ユーザに拡張現実を提供する方法としてS3〜S6の処理に代えて、センサ部26により、携帯端末10の位置、向き、及び姿勢が検出される。そして、センサ部26の検出結果(即ち、携帯端末10の位置、向き、及び姿勢)に基づいて、現実空間におけるCCDカメラ24の位置及び視線方向が特定される。即ち、S7と同様に、現実空間座標系と現実視点座標系との関係が特定されることによって、ユーザに拡張現実が提供される。   Further, in the modified example (8-3), the same processing as that in FIG. 11 is executed. However, instead of the processing of S3 to S6 as a method of providing augmented reality to the user, the mobile terminal 10 The position, orientation, and orientation of the are detected. Then, based on the detection result of the sensor unit 26 (that is, the position, orientation, and orientation of the mobile terminal 10), the position and the line-of-sight direction of the CCD camera 24 in the real space are specified. That is, similarly to S7, augmented reality is provided to the user by specifying the relationship between the real space coordinate system and the real viewpoint coordinate system.

なお、現実空間におけるCCDカメラ24の位置、向き、及び姿勢を検出する方法は、公知の種々の手法を適用可能である。上記の他にも例えば、無線LANのアクセスポイントから発信される電波を使用して位置を測定するようにしてもよい。この場合、各アクセスポイントが設置されている場所がデータベースとして登録されている。また例えば、GPS電波を発信する小型の基地局を屋内に設置するいわゆるIMES(Indoor Messaging System)を用いて携帯端末10の位置が取得されるようにしてもよい。   Various known methods can be applied to the method of detecting the position, orientation, and orientation of the CCD camera 24 in the real space. In addition to the above, for example, the position may be measured using radio waves transmitted from a wireless LAN access point. In this case, the location where each access point is installed is registered as a database. Further, for example, the position of the mobile terminal 10 may be acquired using a so-called IMES (Indoor Messaging System) in which a small base station that transmits GPS radio waves is installed indoors.

(9)また例えば、本発明は、実施形態や変形例において説明したゲーム以外の拡張現実にも適用することができる。例えば、ユーザの操作対象になるものは戦車の例に限られず、車やキャラクタが操作対象として仮想空間に配置されるようにしてもよい。即ち、例えば、車が走るレースコースやキャラクタが現実空間の机の上をステージにして歌やダンスをするような拡張現実が提供されるようにしてもよい。この場合、実施形態や変形例と同様の方法を用いて、車やキャラクタの位置の制御を、現実空間画像が示す撮影範囲の変化方向に基づいて行うようにすればよい。   (9) Further, for example, the present invention can be applied to augmented reality other than the game described in the embodiments and modifications. For example, what is to be operated by the user is not limited to a tank, and a car or a character may be placed in the virtual space as an operation target. That is, for example, an augmented reality may be provided in which a race course in which a car runs or a character sings or dances on a desk in a real space. In this case, the position of the car or character may be controlled based on the direction of change of the shooting range indicated by the real space image using the same method as in the embodiment and the modification.

10 携帯端末、12 制御部、14 記憶部、16 主記憶部、18 表示部、20 操作キー部、22 タッチパネル、24 CCDカメラ、26 センサ部、28 通信部、30 バス、40 マーカ、42 枠、44 模様、50 ゲーム空間、52 戦車、54 砦、56 敵、58 仮想カメラ、60 ゲーム画面、62 現実空間画像、64 仮想空間画像、66a 前進ボタン、66b 後退ボタン、66c 左回転ボタン、66d 右回転ボタン、70 拡張現実データ記憶部、72 撮影部、74 表示制御部、76 操作部、78 移動制御部、80 判定部。   10 mobile terminals, 12 control units, 14 storage units, 16 main storage units, 18 display units, 20 operation key units, 22 touch panels, 24 CCD cameras, 26 sensor units, 28 communication units, 30 buses, 40 markers, 42 frames, 44 patterns, 50 game spaces, 52 tanks, 54 forts, 56 enemies, 58 virtual cameras, 60 game screens, 62 real space images, 64 virtual space images, 66a forward buttons, 66b reverse buttons, 66c left rotate buttons, 66d right rotate Button, 70 Augmented reality data storage unit, 72 photographing unit, 74 display control unit, 76 operation unit, 78 movement control unit, 80 determination unit.

Claims (6)

ユーザの操作により撮影範囲が変化する撮影手段と、
前記撮影手段が現実空間を撮影することによって生成される現実空間画像と、前記撮影範囲に対応する視野が設定された視点から前記ユーザの操作対象が配置された仮想空間を見た様子を示す仮想空間画像と、に関する位置合わせ及び合成をして表示画面に表示させる表示制御手段と、
前記ユーザが前記操作対象の方向指示操作を行うための操作手段と、
前記ユーザにより行われた前記方向指示操作に対応する基本方向に基づいて前記操作対象を移動させる移動制御手段と、
前記現実空間画像が示す前記撮影範囲が変化したか否かを判定する判定手段と、
を含み、
前記移動制御手段は、
前記現実空間画像が示す前記撮影範囲が変化したと判定され、所定期間内に前記方向指示操作が行われた場合、前記現実空間画像が示す前記撮影範囲の変化内容に基づいて前記方向指示操作と前記基本方向との対応付けを変更し、当該変更後の対応付けと前記所定期間内に行われた方向指示操作とに基づいて前記操作対象を移動させる、
ことを特徴とする画像処理装置。
Photographing means whose photographing range is changed by a user operation;
A virtual image showing a state where a real space image generated by photographing the real space by the photographing unit and a virtual space in which the operation target of the user is viewed from a viewpoint in which a visual field corresponding to the photographing range is set Display control means for aligning and synthesizing the spatial image and displaying it on the display screen;
Operation means for the user to perform a direction instruction operation of the operation target;
Movement control means for moving the operation object based on a basic direction corresponding to the direction instruction operation performed by the user;
Determination means for determining whether or not the shooting range indicated by the real space image has changed;
Including
The movement control means includes
When it is determined that the shooting range indicated by the real space image has changed and the direction indication operation is performed within a predetermined period, the direction indication operation is performed based on the change content of the shooting range indicated by the real space image. Changing the association with the basic direction, and moving the operation target based on the association after the change and the direction instruction operation performed within the predetermined period;
An image processing apparatus.
前記移動制御手段は、
前記現実空間における前記現実空間画像が示す前記撮影範囲と、前記仮想空間における前記操作対象の位置と、の位置関係の変化が所定の条件を満たす場合、前記方向指示操作と前記基本方向との対応付けを変更する、
ことを特徴とする請求項1に記載の画像処理装置。
The movement control means includes
Correspondence between the direction indicating operation and the basic direction when a change in the positional relationship between the shooting range indicated by the real space image in the real space and the position of the operation target in the virtual space satisfies a predetermined condition Change the attachment,
The image processing apparatus according to claim 1.
前記移動制御手段は、
前記方向指示操作と、前記仮想空間における前記視点の視点座標系とは異なる座標系で示される前記基本方向と、の対応付けを変更する、
ことを特徴とする請求項1又は2に記載の画像処理装置。
The movement control means includes
Changing the correspondence between the direction indicating operation and the basic direction indicated by a coordinate system different from the viewpoint coordinate system of the viewpoint in the virtual space;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記移動制御手段は、
前記所定期間内に行われた前記方向指示操作に対応する前記基本方向に基づいて定まる前記操作対象の移動方向と、前記現実空間画像が示す前記撮影範囲の変化方向と、のずれを判定する手段と、
前記ずれが基準範囲である場合、前記ユーザにより行われた前記方向指示操作に対応する基本方向に基づいて前記操作対象を移動させる手段と、
前記ずれが基準範囲でない場合、前記現実空間画像が示す前記撮影範囲の変化内容に基づいて前記方向指示操作と前記基本方向との対応付けを変更し、当該変更後の対応付けと前記所定期間内に行われた方向指示操作とに基づいて前記操作対象を移動させる手段と、
を含むことを特徴とする請求項1〜3の何れか一項に記載の画像処理装置。
The movement control means includes
Means for determining a deviation between a moving direction of the operation target determined based on the basic direction corresponding to the direction indicating operation performed within the predetermined period and a change direction of the shooting range indicated by the real space image. When,
Means for moving the operation target based on a basic direction corresponding to the direction indicating operation performed by the user when the deviation is in a reference range;
When the deviation is not a reference range, the association between the direction instruction operation and the basic direction is changed based on the change content of the shooting range indicated by the real space image, and the association after the change is within the predetermined period. Means for moving the operation object based on the direction instruction operation performed on
The image processing apparatus according to claim 1, wherein the image processing apparatus includes:
ユーザの操作により撮影範囲が変化する撮影手段が現実空間を撮影することによって生成される現実空間画像と、前記撮影範囲に対応する視野が設定された視点から前記ユーザの操作対象が配置された仮想空間を見た様子を示す仮想空間画像と、に関する位置合わせ及び合成をして表示画面に表示させる表示制御ステップと、
前記ユーザが前記操作対象の方向指示操作を行うための操作手段から前記ユーザにより行われた前記方向指示操作に対応する基本方向に基づいて前記操作対象を移動させる移動制御ステップと、
前記現実空間画像が示す前記撮影範囲が変化したか否かを判定する判定ステップと、
を含み、
前記移動制御ステップにおいては、
前記現実空間画像が示す前記撮影範囲が変化したと判定され、所定期間内に前記方向指示操作が行われた場合、前記現実空間画像が示す前記撮影範囲の変化内容に基づいて前記方向指示操作と前記基本方向との対応付けを変更し、当該変更後の対応付けと前記所定期間内に行われた方向指示操作とに基づいて前記操作対象を移動させる、
ことを特徴とする画像処理装置の制御方法。
A virtual space in which the operation target of the user is arranged from a viewpoint in which a real space image generated by photographing means that changes the photographing range by a user operation and photographing a real space and a field of view corresponding to the photographing range is set. A virtual space image showing a state of seeing the space, and a display control step for performing alignment and composition on the display screen,
A movement control step of moving the operation object based on a basic direction corresponding to the direction instruction operation performed by the user from an operation means for the user to perform a direction instruction operation of the operation object;
A determination step of determining whether or not the shooting range indicated by the real space image has changed;
Including
In the movement control step,
When it is determined that the shooting range indicated by the real space image has changed and the direction indication operation is performed within a predetermined period, the direction indication operation is performed based on the change content of the shooting range indicated by the real space image. Changing the association with the basic direction, and moving the operation target based on the association after the change and the direction instruction operation performed within the predetermined period;
And a control method for the image processing apparatus.
ユーザの操作により撮影範囲が変化する撮影手段、
前記撮影手段が現実空間を撮影することによって生成される現実空間画像と、前記撮影範囲に対応する視野が設定された視点から前記ユーザの操作対象が配置された仮想空間を見た様子を示す仮想空間画像と、に関する位置合わせ及び合成をして表示画面に表示させる表示制御手段、
前記ユーザが前記操作対象の方向指示操作を行うための操作手段、
前記ユーザにより行われた前記方向指示操作に対応する基本方向に基づいて前記操作対象を移動させる移動制御手段、
前記現実空間画像が示す前記撮影範囲が変化したか否かを判定する判定手段、
を含み、
前記移動制御手段は、
前記現実空間画像が示す前記撮影範囲が変化したと判定され、所定期間内に前記方向指示操作が行われた場合、前記現実空間画像が示す前記撮影範囲の変化内容に基づいて前記方向指示操作と前記基本方向との対応付けを変更し、当該変更後の対応付けと前記所定期間内に行われた方向指示操作とに基づいて前記操作対象を移動させる、
ことを特徴とする画像処理装置としてコンピュータを機能させるためのプログラム。
Photographing means whose photographing range is changed by a user operation,
A virtual image showing a state where a real space image generated by photographing the real space by the photographing unit and a virtual space in which the operation target of the user is viewed from a viewpoint in which a visual field corresponding to the photographing range is set Display control means for aligning and synthesizing the spatial image and displaying on the display screen;
Operation means for the user to perform a direction instruction operation of the operation target;
A movement control means for moving the operation target based on a basic direction corresponding to the direction instruction operation performed by the user;
Determination means for determining whether or not the shooting range indicated by the real space image has changed;
Including
The movement control means includes
When it is determined that the shooting range indicated by the real space image has changed and the direction indication operation is performed within a predetermined period, the direction indication operation is performed based on the change content of the shooting range indicated by the real space image. Changing the association with the basic direction, and moving the operation target based on the association after the change and the direction instruction operation performed within the predetermined period;
A program for causing a computer to function as an image processing apparatus.
JP2011080847A 2011-03-31 2011-03-31 Image processing apparatus, image processing apparatus control method, and program Active JP5350427B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011080847A JP5350427B2 (en) 2011-03-31 2011-03-31 Image processing apparatus, image processing apparatus control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011080847A JP5350427B2 (en) 2011-03-31 2011-03-31 Image processing apparatus, image processing apparatus control method, and program

Publications (2)

Publication Number Publication Date
JP2012216074A JP2012216074A (en) 2012-11-08
JP5350427B2 true JP5350427B2 (en) 2013-11-27

Family

ID=47268786

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011080847A Active JP5350427B2 (en) 2011-03-31 2011-03-31 Image processing apparatus, image processing apparatus control method, and program

Country Status (1)

Country Link
JP (1) JP5350427B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014119097A1 (en) * 2013-02-01 2014-08-07 ソニー株式会社 Information processing device, terminal device, information processing method, and programme
WO2014119098A1 (en) * 2013-02-01 2014-08-07 ソニー株式会社 Information processing device, terminal device, information processing method, and programme
JP6357676B2 (en) * 2013-09-19 2018-07-18 株式会社北電子 Information provision system
JP6192107B2 (en) * 2013-12-10 2017-09-06 Kddi株式会社 Video instruction method, system, terminal, and program capable of superimposing instruction image on photographing moving image
JP6465672B2 (en) * 2015-01-29 2019-02-06 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus and information processing method
WO2019119314A1 (en) * 2017-12-20 2019-06-27 王子南 Simulated sandbox system
JP7184661B2 (en) * 2019-02-08 2022-12-06 株式会社バンダイナムコエンターテインメント Programs and electronics

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3841806B2 (en) * 2004-09-01 2006-11-08 株式会社ソニー・コンピュータエンタテインメント Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP2012216074A (en) 2012-11-08

Similar Documents

Publication Publication Date Title
US11221726B2 (en) Marker point location display method, electronic device, and computer-readable storage medium
JP5350427B2 (en) Image processing apparatus, image processing apparatus control method, and program
US9324298B2 (en) Image processing system, image processing apparatus, storage medium having stored therein image processing program, and image processing method
US8970623B2 (en) Information processing system, information processing method, information processing device and tangible recoding medium recording information processing program
WO2020253655A1 (en) Method for controlling multiple virtual characters, device, apparatus, and storage medium
JP7374313B2 (en) Methods, devices, terminals and programs for driving vehicles in virtual environments
JP6731461B2 (en) Information processing method and apparatus, storage medium, electronic device
CN108671543A (en) Labelled element display methods, computer equipment and storage medium in virtual scene
US9064335B2 (en) System, method, device and computer-readable medium recording information processing program for superimposing information
CN110148178B (en) Camera positioning method, device, terminal and storage medium
CN110917616B (en) Orientation prompting method, device, equipment and storage medium in virtual scene
JP2007072537A (en) 360-degree image photographing device
JP2019072478A (en) Information processing method and device, storage medium, and electronic apparatus
JP2012216073A (en) Image processor, image processor control method, and program
CN109407959B (en) Virtual object control method, device and storage medium in virtual scene
JP5735861B2 (en) Image display program, image display apparatus, image display method, image display system, marker
CN110199324B (en) Display device and control method thereof
CN109806583B (en) User interface display method, device, equipment and system
WO2020040277A1 (en) Mixed reality system, program, mobile terminal device, and method
TW201219095A (en) Game system, control method and computer program
CN110737326A (en) Virtual object display method and device, terminal equipment and storage medium
CN113289336A (en) Method, apparatus, device and medium for tagging items in a virtual environment
CN112675541A (en) AR information sharing method and device, electronic equipment and storage medium
CN112788443B (en) Interaction method and system based on optical communication device
CN111459432A (en) Virtual content display method and device, electronic equipment and storage medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130821

R150 Certificate of patent or registration of utility model

Ref document number: 5350427

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250