JP4799269B2 - Image processing apparatus and program - Google Patents

Image processing apparatus and program Download PDF

Info

Publication number
JP4799269B2
JP4799269B2 JP2006140892A JP2006140892A JP4799269B2 JP 4799269 B2 JP4799269 B2 JP 4799269B2 JP 2006140892 A JP2006140892 A JP 2006140892A JP 2006140892 A JP2006140892 A JP 2006140892A JP 4799269 B2 JP4799269 B2 JP 4799269B2
Authority
JP
Japan
Prior art keywords
virtual
dimensional space
posture
operation device
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006140892A
Other languages
Japanese (ja)
Other versions
JP2007310748A (en
Inventor
禎治 豊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc, Sony Computer Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2006140892A priority Critical patent/JP4799269B2/en
Publication of JP2007310748A publication Critical patent/JP2007310748A/en
Application granted granted Critical
Publication of JP4799269B2 publication Critical patent/JP4799269B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は画像処理装置及びプログラムに関し、特に、3次元コンピュータグラフィックスに関する。 The present invention relates to an image processing instrumentation 置及 beauty programs, in particular, to three-dimensional computer graphics.

仮想3次元空間にオブジェクトを配置して、該仮想3次元空間に配置された視点から、オブジェクトに向かう視線方向を見た様子を示す空間画像を生成し、それをモニタに表示するとともに、操作デバイスから入力される操作信号に従って仮想3次元空間におけるオブジェクトの位置や姿勢を変更する技術が知られている。操作デバイスとしては、ボタンの押下の有無を検出するものや、スティック等の操作部材の姿勢を検出するものがあり、従来は、これらの検出結果を示す操作信号を使ってオブジェクトの位置や姿勢を変更していた。   An object is arranged in a virtual three-dimensional space, and a spatial image showing a state in which a line-of-sight direction toward the object is viewed from a viewpoint arranged in the virtual three-dimensional space is generated and displayed on a monitor, and an operation device A technique for changing the position and orientation of an object in a virtual three-dimensional space in accordance with an operation signal input from is known. As operation devices, there are devices that detect whether or not a button is pressed, and devices that detect the posture of an operation member such as a stick, and conventionally, the position and posture of an object are detected using operation signals indicating these detection results. It was changed.

さらに、操作デバイスにジャイロや加速度センサを取り付けて、操作デバイスの姿勢を検出して、この検出結果に従って仮想3次元空間におけるオブジェクトの位置や姿勢を変更することも検討されている。このようにすると、ユーザは、現実のオブジェクトたる操作デバイスを介して、あたかもモニタに表示されている仮想的なオブジェクトを直接的に操っているかのような感覚を得ることができ、直感的に理解し易いユーザインタフェースを実現できる。   Furthermore, it has been studied to attach a gyroscope or an acceleration sensor to the operation device, detect the attitude of the operation device, and change the position and attitude of the object in the virtual three-dimensional space according to the detection result. In this way, the user can feel as if he / she is directly manipulating the virtual object displayed on the monitor via the operation device, which is a real object, and intuitively understand it. A user interface that is easy to do can be realized.

しかしながら、操作デバイスの姿勢を用いる場合、空間画像を生成する際に用いる視線方向が変化すると、空間画像に表された仮想的なオブジェクトを違和感なく操作することが困難となる。例えば、空間画像に表されているオブジェクトは斜め手前を向いているのに対して、モニタに正対している操作デバイスをどのような姿勢とすれば、オブジェクトを仮想3次元空間において前方向に移動させることができるのか、ユーザは直感的に理解することが困難となる。   However, when the posture of the operation device is used, if the line-of-sight direction used when generating the spatial image changes, it becomes difficult to operate the virtual object represented in the spatial image without a sense of incongruity. For example, the object shown in the space image is facing diagonally forward, but what kind of posture the operating device is facing to the monitor will move the object forward in the virtual three-dimensional space It is difficult for the user to intuitively understand whether or not the

本発明は上記課題に鑑みてなされたものであって、その目的は、操作デバイスの姿勢により仮想3次元空間内に配置されたオブジェクトを直感的に操作することができる画像処理装置及びプログラムを提供することにある。 The present invention was made in view of the above problems, an image processing instrumentation 置及 beauty program can intuitively manipulate objects arranged in a virtual three-dimensional space by the posture of the operation device Is to provide.

上記課題を解決するために、本発明に係る画像処理装置は、オブジェクトが配置された仮想3次元空間において、該仮想3次元空間に配置された視点から、前記オブジェクトに向かう視線方向を見た様子を示す空間画像を表示する空間画像表示手段と、前記視点又は前記オブジェクトの少なくとも一方の他方に対する相対的位置を前記仮想3次元空間において移動させて、前記視線方向を変更する視線方向変更手段と、前記オブジェクトの前記仮想3次元空間における姿勢方向を取得するオブジェクト姿勢方向取得手段と、前記オブジェクト姿勢方向取得手段により取得される前記姿勢方向と前記視線方向との差を示す方向差情報を算出する方向差情報算出手段と、前記オブジェクトを操作するための操作デバイスの姿勢を示す姿勢情報を取得する操作デバイス姿勢情報取得手段と、前記方向差情報と前記操作デバイス姿勢情報取得手段により取得される前記姿勢情報とに応じた方向に、前記オブジェクトを前記仮想3次元空間において動作させるオブジェクト移動手段と、を含むことを特徴とする。   In order to solve the above-described problem, the image processing apparatus according to the present invention looks at the viewing direction toward the object from the viewpoint arranged in the virtual three-dimensional space in the virtual three-dimensional space in which the object is arranged. A spatial image display means for displaying a spatial image showing, and a gaze direction changing means for changing the gaze direction by moving a relative position of at least one of the viewpoint or the object in the virtual three-dimensional space; A direction for calculating direction difference information indicating a difference between the posture direction acquired by the object posture direction acquiring unit and an object posture direction acquiring unit that acquires a posture direction of the object in the virtual three-dimensional space; The difference information calculation means and posture information indicating the posture of the operation device for operating the object are obtained. Operating device attitude information acquisition means for performing object movement means for moving the object in the virtual three-dimensional space in a direction according to the direction difference information and the attitude information acquired by the operation device attitude information acquisition means , Including.

また、本発明の一態様では、前記姿勢情報は、前記操作デバイスの傾き方向を示す。   In the aspect of the invention, the posture information indicates a tilt direction of the operation device.

また、本発明に係る画像処理方法は、オブジェクトが配置された仮想3次元空間において、該仮想3次元空間に配置された視点から、前記オブジェクトに向かう視線方向を見た様子を示す空間画像を表示する空間画像表示ステップと、前記視点又は前記オブジェクトの少なくとも一方の他方に対する相対的位置を前記仮想3次元空間において移動させて、前記視線方向を変更する視線方向変更ステップと、前記オブジェクトの前記仮想3次元空間における姿勢方向を取得するオブジェクト姿勢方向取得ステップと、前記オブジェクト姿勢方向取得ステップにより取得される前記姿勢方向と前記視線方向との差を示す方向差情報を算出する方向差情報算出ステップと、前記オブジェクトを操作するための操作デバイスの姿勢を示す姿勢情報を取得する操作デバイス姿勢情報取得ステップと、前記方向差情報と前記操作デバイス姿勢情報取得ステップにより取得される前記姿勢情報とに応じた方向に、前記オブジェクトを前記仮想3次元空間において動作させるオブジェクト移動ステップと、を含むことを特徴とする。   Further, the image processing method according to the present invention displays a spatial image showing a state in which a gaze direction toward the object is viewed from a viewpoint arranged in the virtual three-dimensional space in the virtual three-dimensional space in which the object is arranged. A spatial image display step, a visual line direction changing step of changing the visual line direction by moving a relative position of the viewpoint or at least one of the objects in the virtual three-dimensional space, and the virtual 3 of the object An object posture direction acquisition step for acquiring a posture direction in a three-dimensional space; a direction difference information calculation step for calculating direction difference information indicating a difference between the posture direction and the line-of-sight direction acquired by the object posture direction acquisition step; Attitude information indicating the attitude of the operating device for operating the object is acquired. An operation device posture information acquisition step to perform, and an object movement step to move the object in the virtual three-dimensional space in a direction according to the direction difference information and the posture information acquired by the operation device posture information acquisition step. , Including.

また、本発明に係るプログラムは、オブジェクトが配置された仮想3次元空間において、該仮想3次元空間に配置された視点から、前記オブジェクトに向かう視線方向を見た様子を示す空間画像を表示する空間画像表示手段、前記視点又は前記オブジェクトの少なくとも一方の他方に対する相対的位置を前記仮想3次元空間において移動させて、前記視線方向を変更する視線方向変更手段、前記オブジェクトの前記仮想3次元空間における姿勢方向を取得するオブジェクト姿勢方向取得手段、前記オブジェクト姿勢方向取得手段により取得される前記姿勢方向と前記視線方向との差を示す方向差情報を算出する方向差情報算出手段、前記オブジェクトを操作するための操作デバイスの姿勢を示す姿勢情報を取得する操作デバイス姿勢情報取得手段、及び前記方向差情報と前記操作デバイス姿勢情報取得手段により取得される前記姿勢情報とに応じた方向に、前記オブジェクトを前記仮想3次元空間において動作させるオブジェクト移動手段としてコンピュータを機能させるためのプログラムである。このプログラムは、CD−ROMやDVD−ROM等のコンピュータ読み取り可能な情報記憶媒体に格納されてもよい。   Further, the program according to the present invention is a space for displaying a spatial image showing a state in which a gaze direction toward the object is viewed from the viewpoint arranged in the virtual three-dimensional space in the virtual three-dimensional space in which the object is arranged. Image display means, visual axis direction changing means for changing the visual line direction by moving a relative position of the viewpoint or at least one of the objects in the virtual three-dimensional space, and the posture of the object in the virtual three-dimensional space An object posture direction acquiring unit for acquiring a direction, a direction difference information calculating unit for calculating direction difference information indicating a difference between the posture direction and the line-of-sight direction acquired by the object posture direction acquiring unit, and for operating the object Acquire operation device attitude information to acquire attitude information indicating the attitude of the operating device For causing the computer to function as an object moving unit that moves the object in the virtual three-dimensional space in a direction according to the stage and the direction difference information and the posture information acquired by the operation device posture information acquisition unit. It is a program. This program may be stored in a computer-readable information storage medium such as a CD-ROM or DVD-ROM.

以下、本発明の一実施形態について図面に基づき詳細に説明する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

図1は、本実施形態に係るエンタテインメントシステム(画像処理装置)のハードウェア構成を示す図である。同図に示すように、エンタテインメントシステム10は、MPU(Micro Processing Unit)11と、メインメモリ20と、画像処理部24と、モニタ26と、入出力処理部28と、音声処理部30と、スピーカ32と、光ディスク読み取り部34と、光ディスク36と、ハードディスク38と、インタフェース(I/F)40,44と、操作デバイス42と、カメラユニット46と、ネットワークインタフェース48と、を含んで構成されるコンピュータシステムである。   FIG. 1 is a diagram illustrating a hardware configuration of an entertainment system (image processing apparatus) according to the present embodiment. As shown in the figure, the entertainment system 10 includes an MPU (Micro Processing Unit) 11, a main memory 20, an image processing unit 24, a monitor 26, an input / output processing unit 28, an audio processing unit 30, and a speaker. 32, an optical disk reading unit 34, an optical disk 36, a hard disk 38, interfaces (I / F) 40 and 44, an operation device 42, a camera unit 46, and a network interface 48. System.

図2は、MPU11(プログラム実行手段)の構成を示す図である。同図に示すように、MPU11は、メインプロセッサ12と、サブプロセッサ14a,14b,14c,14d,14e,14f,14g,14hと、バス16と、メモリコントローラ18と、インタフェース(I/F)22と、を含んで構成される。   FIG. 2 is a diagram showing the configuration of the MPU 11 (program execution means). As shown in the figure, the MPU 11 includes a main processor 12, sub processors 14a, 14b, 14c, 14d, 14e, 14f, 14g, and 14h, a bus 16, a memory controller 18, and an interface (I / F) 22. And comprising.

メインプロセッサ12は、図示しないROM(Read Only Memory)に記憶されるオペレーティングシステム、例えばDVD(Digital Versatile Disk)−ROM等の光ディスク36から読み出されるプログラム及びデータや、通信ネットワークを介して供給されるプログラム及びデータ等に基づいて、各種情報処理を行ったり、サブプロセッサ14a乃至14hに対する制御を行ったりする。   The main processor 12 is an operating system stored in a ROM (Read Only Memory) (not shown), for example, a program and data read from an optical disc 36 such as a DVD (Digital Versatile Disk) -ROM, and a program supplied via a communication network. Based on the data and the like, various information processing is performed, and the sub-processors 14a to 14h are controlled.

サブプロセッサ14a乃至14hは、メインプロセッサ12からの指示に従って、各種情報処理を行ったり、エンタテインメントシステム10の各部を、例えばDVD−ROM等の光ディスク36から読み出されるプログラム及びデータや、通信ネットワークを介して供給されるプログラム及びデータ等に基づいて制御したりする。   The sub-processors 14a to 14h perform various types of information processing in accordance with instructions from the main processor 12, and each part of the entertainment system 10 is read from the optical disk 36 such as a DVD-ROM or the like via a communication network. Control based on supplied programs and data.

バス16は、アドレス及びデータをエンタテインメントシステム10の各部でやり取りするためのものである。メインプロセッサ12、サブプロセッサ14a乃至14h、メモリコントローラ18、インタフェース22は、バス16を介して相互にデータ授受可能に接続される。   The bus 16 is used for exchanging addresses and data among the various parts of the entertainment system 10. The main processor 12, the sub processors 14a to 14h, the memory controller 18, and the interface 22 are connected to each other via the bus 16 so as to be able to exchange data.

メモリコントローラ18は、メインプロセッサ12及びサブプロセッサ14a乃至14hからの指示に従って、メインメモリ20へのアクセスを行う。メインメモリ20には、光ディスク36やハードディスク38から読み出されたプログラム及びデータや、通信ネットワークを介して供給されたプログラム及びデータが必要に応じて書き込まれる。メインメモリ20はメインプロセッサ12やサブプロセッサ14a乃至14hの作業用としても用いられる。   The memory controller 18 accesses the main memory 20 in accordance with instructions from the main processor 12 and the sub processors 14a to 14h. Programs and data read from the optical disk 36 and the hard disk 38 and programs and data supplied via the communication network are written into the main memory 20 as necessary. The main memory 20 is also used for work of the main processor 12 and the sub processors 14a to 14h.

インタフェース22には画像処理部24及び入出力処理部28が接続される。メインプロセッサ12及びサブプロセッサ14a乃至14hと、画像処理部24又は入出力処理部28と、の間のデータ授受はインタフェース22を介して行われる。   An image processing unit 24 and an input / output processing unit 28 are connected to the interface 22. Data exchange between the main processor 12 and the sub processors 14 a to 14 h and the image processing unit 24 or the input / output processing unit 28 is performed via the interface 22.

画像処理部24は、GPU(Graphical Processing Unit)とフレームバッファとを含んで構成される。GPUは、メインプロセッサ12やサブプロセッサ14a乃至14hから供給される画像データに基づいてフレームバッファに各種画面を描画する。フレームバッファに形成された画面、すなわちMPU11の実行結果を示す画面は、所定のタイミングでビデオ信号に変換されてモニタ26に出力される。なお、モニタ26には例えば家庭用テレビ受像機が用いられる。   The image processing unit 24 includes a GPU (Graphical Processing Unit) and a frame buffer. The GPU renders various screens in the frame buffer based on the image data supplied from the main processor 12 and the sub processors 14a to 14h. A screen formed in the frame buffer, that is, a screen showing the execution result of the MPU 11 is converted into a video signal at a predetermined timing and output to the monitor 26. As the monitor 26, for example, a home television receiver is used.

入出力処理部28には、音声処理部30、光ディスク読み取り部34、ハードディスク38、インタフェース40,44が接続される。入出力処理部28は、メインプロセッサ12及びサブプロセッサ14a乃至14hと、音声処理部30、光ディスク読み取り部34、ハードディスク38、インタフェース40,44、ネットワークインタフェース48と、の間のデータ授受を制御する。   An audio processing unit 30, an optical disk reading unit 34, a hard disk 38, and interfaces 40 and 44 are connected to the input / output processing unit 28. The input / output processing unit 28 controls data exchange between the main processor 12 and the sub-processors 14a to 14h, the audio processing unit 30, the optical disc reading unit 34, the hard disk 38, the interfaces 40 and 44, and the network interface 48.

音声処理部30は、SPU(Sound Processing Unit)とサウンドバッファとを含んで構成される。サウンドバッファには、光ディスク36やハードディスク38から読み出されたゲーム音楽、ゲーム効果音やメッセージなどの各種音声データが記憶される。SPUは、これらの各種音声データを再生してスピーカ32から出力させる。なお、スピーカ32には例えば家庭用テレビ受像機の内蔵スピーカが用いられる。   The sound processing unit 30 includes an SPU (Sound Processing Unit) and a sound buffer. The sound buffer stores various audio data such as game music, game sound effects and messages read from the optical disk 36 and the hard disk 38. The SPU reproduces these various audio data and outputs them from the speaker 32. As the speaker 32, for example, a built-in speaker of a home television receiver is used.

光ディスク読み取り部34は、メインプロセッサ12及びサブプロセッサ14a乃至14hからの指示に従って、光ディスク36に記憶されたプログラムやデータを読み取る。なお、エンタテインメントシステム10は、光ディスク36以外の他のコンピュータ読み取り可能な情報記憶媒体に記憶されたプログラムやデータを読み取り可能に構成してもよい。   The optical disk reading unit 34 reads programs and data stored on the optical disk 36 in accordance with instructions from the main processor 12 and the sub processors 14a to 14h. Note that the entertainment system 10 may be configured to be able to read a program or data stored in a computer-readable information storage medium other than the optical disk 36.

光ディスク36は例えばDVD−ROM等の一般的な光ディスク(コンピュータ読み取り可能な情報記憶媒体)である。また、ハードディスク38は一般的なハードディスク装置である。光ディスク36やハードディスク38には各種プログラムやデータがコンピュータ読み取り可能に記憶される。   The optical disk 36 is a general optical disk (computer-readable information storage medium) such as a DVD-ROM. The hard disk 38 is a general hard disk device. Various programs and data are stored in the optical disk 36 and the hard disk 38 so as to be readable by a computer.

インタフェース(I/F)40,44は、操作デバイス42やカメラユニット46等の各種周辺機器を接続するためのインタフェースである。このようなインタフェースとしては、例えばUSB(Universal Serial Bus)インタフェースが用いられる。   The interfaces (I / F) 40 and 44 are interfaces for connecting various peripheral devices such as the operation device 42 and the camera unit 46. For example, a USB (Universal Serial Bus) interface is used as such an interface.

操作デバイス42は汎用操作入力手段であり、ユーザが各種操作(例えばゲーム操作)を入力するために用いられる。入出力処理部28は、所定時間(例えば1/60秒)ごとに操作デバイス42から、その各部の状態を無線又は有線通信により取得し、その結果を表す操作信号をメインプロセッサ12やサブプロセッサ14a乃至14hに供給する。メインプロセッサ12やサブプロセッサ14a乃至14hは、ユーザによって行われた操作の内容をその操作信号に基づいて判断する。なお、エンタテインメントシステム10は複数の操作デバイス42を通信接続可能に構成されており、各操作デバイス42から入力される操作信号に基づいて、メインプロセッサ12やサブプロセッサ14a乃至14hが各種処理を実行するようになっている。   The operation device 42 is general-purpose operation input means, and is used by the user to input various operations (for example, game operations). The input / output processing unit 28 acquires the state of each unit from the operation device 42 every predetermined time (for example, 1/60 seconds) by wireless or wired communication, and sends an operation signal representing the result to the main processor 12 or the sub processor 14a. To 14h. The main processor 12 and the sub processors 14a to 14h determine the content of the operation performed by the user based on the operation signal. The entertainment system 10 is configured to be capable of communication connection of a plurality of operation devices 42, and the main processor 12 and the sub processors 14a to 14h execute various processes based on operation signals input from the operation devices 42. It is like that.

カメラユニット46は、例えば公知のデジタルカメラを含んで構成され、白黒、グレイスケール又はカラーの撮影画像を所定時間(例えば1/60秒)ごとに入力する。本実施の形態におけるカメラユニット46は、撮影画像をJPEG(Joint Photographic Experts Group)形式の画像データとして入力するようになっている。また、カメラユニット46は、例えばレンズをプレイヤに向けた状態でモニタ26の上に設置され、ケーブルを介してインタフェース44に接続される。ネットワークインタフェース48は入出力処理部28とインターネット等の通信ネットワークとに接続されており、エンタテインメントシステム10が通信ネットワークを介して他のエンタテインメントシステム10等のコンピュータシステムとデータ通信するのを中継するようになっている。   The camera unit 46 includes, for example, a known digital camera, and inputs black and white, grayscale, or color photographed images every predetermined time (for example, 1/60 seconds). The camera unit 46 in the present embodiment is configured to input a captured image as image data in JPEG (Joint Photographic Experts Group) format. The camera unit 46 is installed on the monitor 26 with the lens facing the player, for example, and is connected to the interface 44 via a cable. The network interface 48 is connected to the input / output processing unit 28 and a communication network such as the Internet, and relays data communication between the entertainment system 10 and other computer systems such as the entertainment system 10 via the communication network. It has become.

操作デバイス42は、可搬型の小型コンピュータであって、図3にその外観を示すように、例えば長方形薄箱状に形成される。また、本体表面の左側には方向キー50が設けられ、右側にはボタン52A〜52Dからなるボタン群52が設けられている。操作デバイス42の一側面には補助ボタン54L,54Rが設けられている。また、操作デバイス42は、その長手方向の中央にジャイロスコープ58が内蔵されており、またその側方に加速度センサ56も内蔵されている。加速度センサ56は、互いに直交する3方向の加速度を検出する3軸加速度センサであり、図4に示すように、操作デバイス42の左右方向(長手方向)であるX方向の、重力や操作デバイス42の移動に起因する加速度と、操作デバイス42の奥行き方向(短手方向)であるY方向の、重力や操作デバイス42の移動に起因する加速度と、操作デバイスの厚さ方向であるZ方向の、重力や操作デバイス42の移動に起因する加速度と、を検出するものである。これら3方向の加速度に従って、操作デバイス42やエンタテインメントシステム10は、操作デバイス42の姿勢を検知することができる。すなわち、操作デバイス42がY軸に対してどれだけ回転したか(符号XU及びXD)、X軸に対してどれだけ回転したか(符号YU及びYD)を検知することができる。また、操作デバイス42が鉛直方向に移動する際の加速度も検知することができる(符号ZU及びZD)。これにより、操作デバイス42やエンタテインメントシステム10は、操作デバイス42が鉛直方向に持ち上げられたり、或いは操作デバイス42が鉛直方向に置かれたりしたことを検知することができる。具体的には、図5に示すように、加速度センサ56は、上記3方向のそれぞれについて、加速度に比例する電圧を出力するようになっており、この電圧の値から操作デバイス42がどちらにどれだけ傾けられたかをエンタテインメントシステム10で把握できるようになっている。   The operation device 42 is a portable small computer, and is formed in a rectangular thin box, for example, as shown in FIG. Further, a direction key 50 is provided on the left side of the main body surface, and a button group 52 including buttons 52A to 52D is provided on the right side. Auxiliary buttons 54L and 54R are provided on one side of the operation device 42. The operation device 42 has a gyroscope 58 built in the center in the longitudinal direction, and an acceleration sensor 56 built in the side thereof. The acceleration sensor 56 is a three-axis acceleration sensor that detects accelerations in three directions orthogonal to each other. As shown in FIG. 4, gravity or the operation device 42 in the X direction that is the left-right direction (longitudinal direction) of the operation device 42. Acceleration in the Y direction, which is the depth direction (short direction) of the operation device 42, acceleration due to gravity or movement of the operation device 42, and Z direction, which is the thickness direction of the operation device, It detects gravity and acceleration caused by movement of the operation device 42. The operation device 42 and the entertainment system 10 can detect the attitude of the operation device 42 according to the acceleration in these three directions. That is, it is possible to detect how much the operation device 42 has rotated with respect to the Y axis (reference characters XU and XD) and how much the operation device 42 has rotated with respect to the X axis (reference symbols YU and YD). Moreover, the acceleration at the time of the operation device 42 moving to a perpendicular direction is also detectable (code | symbol ZU and ZD). Accordingly, the operation device 42 and the entertainment system 10 can detect that the operation device 42 is lifted in the vertical direction or the operation device 42 is placed in the vertical direction. Specifically, as shown in FIG. 5, the acceleration sensor 56 outputs a voltage proportional to the acceleration in each of the above three directions. The entertainment system 10 can grasp whether it is tilted only.

また、操作デバイス42は上述したようにジャイロスコープ58を内蔵しており、これにより操作デバイス42の厚さ方向であるZ方向周りの回転の角速度ωを検出することができる。   Further, as described above, the operation device 42 has the built-in gyroscope 58, whereby the angular velocity ω of rotation around the Z direction that is the thickness direction of the operation device 42 can be detected.

エンタテインメントシステム10及び操作デバイス42は、USB等の有線通信手段、及びBlueTooth(商標)やワイヤレスLAN等の無線通信手段を備えており、操作デバイス42は、加速度センサ56やジャイロ58により検出されるデータ、ボタン群32、補助ボタン34及び方向キー30の入力状態、及びそれらの処理結果を、無線又は有線通信によりエンタテインメントシステム10に送信することができる。エンタテインメントシステム10は、操作デバイス42から送信されるデータを受信すると、そのデータに従って各種の情報処理を実行する。情報処理の実行結果はテレビ受像機等のモニタ26により表示されたり、その内蔵スピーカ等のスピーカ32により音声出力されたりする。   The entertainment system 10 and the operation device 42 include wired communication means such as USB, and wireless communication means such as BlueTooth (trademark) and wireless LAN. The operation device 42 includes data detected by the acceleration sensor 56 and the gyro 58. The input states of the button group 32, the auxiliary button 34, and the direction key 30, and the processing results thereof can be transmitted to the entertainment system 10 by wireless or wired communication. When the entertainment system 10 receives data transmitted from the operation device 42, the entertainment system 10 executes various types of information processing according to the data. An execution result of the information processing is displayed on a monitor 26 such as a television receiver, or is output as sound through a speaker 32 such as a built-in speaker.

以下、上記ハードウェア構成を有するエンタテインメントシステム10において、操作デバイス42を用いた新規なユーザインタフェースを実現する技術について説明する。   Hereinafter, a technique for realizing a new user interface using the operation device 42 in the entertainment system 10 having the above hardware configuration will be described.

本実施形態では、エンタテインメントシステム10のメインメモリ20上に仮想3次元空間が構築される。図6は、この仮想3次元空間の一例を示している。同図に示すように、仮想3次元空間60にはワールド座標系61が設定されており、その一点にユーザの操作対象であるオブジェクト64が配置されている。仮想3次元空間60には、視点66も配置されており、視点66からオブジェクト64内の代表点(例えば後述するオブジェクト座標系65の原点)に向かう方向に、視線方向68が設定されている。そして、視点66から視線方向68を見た様子を示す空間画像が生成され、これがモニタ26により表示されるようになっている。このとき、視線方向68は視点66からオブジェクト64に向かうよう設定されているので、空間画像にはオブジェクト64が表れる。   In the present embodiment, a virtual three-dimensional space is constructed on the main memory 20 of the entertainment system 10. FIG. 6 shows an example of this virtual three-dimensional space. As shown in the figure, a world coordinate system 61 is set in the virtual three-dimensional space 60, and an object 64 that is a user's operation target is arranged at one point. A viewpoint 66 is also arranged in the virtual three-dimensional space 60, and a line-of-sight direction 68 is set in a direction from the viewpoint 66 toward a representative point in the object 64 (for example, an origin of an object coordinate system 65 described later). Then, a spatial image showing a state in which the viewing direction 68 is viewed from the viewpoint 66 is generated and displayed on the monitor 26. At this time, since the line-of-sight direction 68 is set so as to be directed from the viewpoint 66 to the object 64, the object 64 appears in the spatial image.

視点66はオブジェクト64の上方(ワールド座標系61における例えばZ方向)に設定された視点軌道62上を、操作デバイス42による操作に従って移動するようになっている。すなわち、操作デバイス42の補助ボタン54Lを押下すると、視点66は視点軌道62上を反時計回りに移動する。また、補助ボタン54Rを押下すると、視点66は視点軌道62上を時計回りに移動する。   The viewpoint 66 moves on the viewpoint trajectory 62 set above the object 64 (for example, the Z direction in the world coordinate system 61) according to an operation by the operation device 42. That is, when the auxiliary button 54L of the operation device 42 is pressed, the viewpoint 66 moves on the viewpoint trajectory 62 counterclockwise. In addition, when the auxiliary button 54R is pressed, the viewpoint 66 moves clockwise on the viewpoint trajectory 62.

オブジェクト64にはオブジェクト座標系65が設定されており、オブジェクト座標系65のYa軸がオブジェクト64の前後方向に一致し、Xa軸が左右方向に一致し、Za軸が上下方向に一致する。本実施形態では、操作デバイス42を傾けることにより、仮想3次元空間60におけるオブジェクト64の位置や姿勢を変化させることができる。このとき、視線方向68とオブジェクト座標系65により規定されるオブジェクト64の姿勢方向(Ya軸方向)とのなす角θにより、操作デバイス42をどの方向に傾けると、どの方向にオブジェクト64が移動したり、姿勢を変えたりするかが変わる。   An object coordinate system 65 is set for the object 64. The Ya axis of the object coordinate system 65 matches the front-rear direction of the object 64, the Xa axis matches the left-right direction, and the Za axis matches the vertical direction. In the present embodiment, the position and orientation of the object 64 in the virtual three-dimensional space 60 can be changed by tilting the operation device 42. At this time, if the operation device 42 is tilted in any direction by the angle θ formed by the line-of-sight direction 68 and the posture direction (Ya axis direction) of the object 64 defined by the object coordinate system 65, the object 64 moves in which direction. Or change posture.

すなわち、図7(a)に示すように、オブジェクト64の後方に位置する視点66から仮想3次元空間60を見た様子を示す空間画像がモニタ26に表示される場合、オブジェクト64の前部が画面の上側に、後部が画面の下側に、右部が画面の右側に、左部が画面の左側に表示される。この場合、同図(b)に示すように、操作デバイス42を右に傾けることにより、オブジェクト64が仮想3次元空間60において右側(R)に傾く。また、操作デバイス42を左に傾けることにより、オブジェクト64が仮想3次元空間60において左側(L)に傾く。さらに、操作デバイス42を奥側に傾けることにより、オブジェクト64が仮想3次元空間60において前方(F)に移動し、操作デバイス42を手前に傾けることにより、オブジェクト64が仮想3次元空間60において後方(B)に移動する。   That is, as shown in FIG. 7A, when a spatial image showing the virtual three-dimensional space 60 viewed from the viewpoint 66 located behind the object 64 is displayed on the monitor 26, the front part of the object 64 is On the upper side of the screen, the rear part is displayed on the lower side of the screen, the right part is displayed on the right side of the screen, and the left part is displayed on the left side of the screen. In this case, as shown in FIG. 5B, the object 64 is tilted to the right (R) in the virtual three-dimensional space 60 by tilting the operation device 42 to the right. Further, when the operation device 42 is tilted to the left, the object 64 tilts to the left (L) in the virtual three-dimensional space 60. Further, by tilting the operation device 42 to the back side, the object 64 moves forward (F) in the virtual three-dimensional space 60, and by tilting the operation device 42 to the front, the object 64 moves backward in the virtual three-dimensional space 60. Move to (B).

また、図8(a)に示すように、オブジェクト64の左斜め前に位置する視点66から仮想3次元空間60を見た様子を示す空間画像がモニタ26に表示される場合、同図(b)に示すように、操作デバイス42を左奥に傾けることにより、オブジェクト64が仮想3次元空間60において右側(R)に傾く。また、操作デバイス42を右手前に傾けることにより、オブジェクト64が仮想3次元空間60において左側(L)に傾く。さらに、操作デバイス42を左手前に傾けることにより、オブジェクト64が仮想3次元空間60において前方(F)に移動し、操作デバイス42を右奥に傾けることにより、オブジェクト64が仮想3次元空間60において後方(B)に移動する。   Further, as shown in FIG. 8A, when a spatial image showing the virtual three-dimensional space 60 viewed from the viewpoint 66 located diagonally to the left of the object 64 is displayed on the monitor 26, FIG. ), The object 64 is tilted to the right (R) in the virtual three-dimensional space 60 by tilting the operation device 42 to the left back. Further, when the operation device 42 is tilted to the right front, the object 64 tilts to the left (L) in the virtual three-dimensional space 60. Further, by tilting the operation device 42 to the left front, the object 64 moves forward (F) in the virtual three-dimensional space 60, and by tilting the operation device 42 to the right back, the object 64 is moved in the virtual three-dimensional space 60. Move backward (B).

以上のユーザインタフェースは、具体的には以下の処理により実現される。以下の処理は、エンタテインメントシステム10においてユーザインタフェースプログラムを実行することにより実現されるものである。このプログラムは、インターネット等の通信ネットワークによりエンタテインメントシステム10にダウンロードされてもよいし、CD−ROMやDVD−ROM等のコンピュータ読み取り可能な情報記憶媒体に格納され、そこからエンタテインメントシステム10が読み取ってもよい。   The above user interface is specifically realized by the following processing. The following processing is realized by executing a user interface program in the entertainment system 10. This program may be downloaded to the entertainment system 10 via a communication network such as the Internet, or may be stored in a computer-readable information storage medium such as a CD-ROM or DVD-ROM, and read from there by the entertainment system 10. Good.

本実施形態に係る処理では、まず視線方向68とオブジェクト64の姿勢方向(Ya軸方向)とのなす角θが算出される。なお、視線方向68のベクトルをオブジェクト座標系65におけるXY平面に射影して、その射影後のベクトルが示す方向と、オブジェクト64の姿勢方向とのなす角θを用いてもよい。   In the processing according to the present embodiment, first, an angle θ formed by the line-of-sight direction 68 and the posture direction (Ya axis direction) of the object 64 is calculated. Alternatively, the vector of the line-of-sight direction 68 may be projected onto the XY plane in the object coordinate system 65, and the angle θ formed by the direction indicated by the projected vector and the posture direction of the object 64 may be used.

次に、X方向の加速度を示す加速度センサ56の出力値Xc、及びY方向の加速度を示す加速度センサ56の出力値Ycを取得する。Xcは、加速度センサ56の生の出力値(上記の電圧値)に基づいて生成されるものであり、X方向の加速度が正の場合(つまり操作デバイス42が右に傾いたとき)に正の値をとり、零の場合(つまり操作デバイス42が左右方向に傾いていないとき)に零の値をとり、負の場合(つまり操作デバイス42が左に傾いたとき)に負の値をとる。同様に、Ycも、加速度センサ56の生の出力値(上記の電圧値)に基づいて生成されるものであり、Y方向の加速度が正の場合(つまり操作デバイス42が奥に傾いたとき)に正の値をとり、零の場合(つまり操作デバイス42が前後方向に傾いていないとき)に零の値をとり、負の場合(つまり操作デバイス42が手前に傾いたとき)に負の値をとる。   Next, the output value Xc of the acceleration sensor 56 indicating the acceleration in the X direction and the output value Yc of the acceleration sensor 56 indicating the acceleration in the Y direction are acquired. Xc is generated based on the raw output value (the above voltage value) of the acceleration sensor 56, and is positive when the acceleration in the X direction is positive (that is, when the operation device 42 is tilted to the right). It takes a value and takes a zero value when it is zero (that is, when the operating device 42 is not tilted in the left-right direction), and takes a negative value when it is negative (that is, when the operating device 42 tilts to the left). Similarly, Yc is also generated based on the raw output value (the above voltage value) of the acceleration sensor 56, and when the acceleration in the Y direction is positive (that is, when the operation device 42 is tilted to the back). Takes a positive value, takes a zero value when it is zero (that is, when the operating device 42 is not tilted in the front-rear direction), and a negative value when it is negative (that is, when the operating device 42 tilts forward). Take.

そして、これら出力値のペア(Xc,Yc)(操作デバイス42の姿勢情報)に対して、上記のようにして算出されるなす角θだけXY平面において回転させる処理を施し、その結果を補正後出力値ペア(Xc’,Yc’)とする。そして、この補正後出力値ペアに従って、オブジェクト64の位置や姿勢を仮想3次元空間60において変化させる。すなわち、Yc’が正であれば、オブジェクト64を仮想3次元空間60において前方(F)に移動させるよう、その位置を更新する。また、Yc’が負であれば、オブジェクト64を仮想3次元空間60において後方(B)に移動させるよう、その位置を更新する。また、Xc’が正であれば、オブジェクト64を仮想3次元空間60において右方(R)に傾けるよう、その姿勢を更新する。また、Xc’が負であれば、オブジェクト64を仮想3次元空間60において左方(L)に傾けるよう、その姿勢を更新する。なお、補正後出力値ペア(Xc’,Yc’)の各成分、すなわちXc’及びYc’の両方に基づいて1つの方向を特定して、該方向に向けた動作をオブジェクト64に行わせるようにしてもよい。例えば、補正後出力値ペア(Xc’,Yc’)に基づいて1つの方向を算出し、該方向にオブジェクト64の姿勢方向が向くようオブジェクト64を旋回させてもよい。   Then, the output value pair (Xc, Yc) (attitude information of the operation device 42) is subjected to a process of rotating in the XY plane by the angle θ formed as described above, and the result is corrected. It is assumed that the output value pair (Xc ′, Yc ′). Then, the position and orientation of the object 64 are changed in the virtual three-dimensional space 60 according to the corrected output value pair. That is, if Yc ′ is positive, the position of the object 64 is updated so that the object 64 is moved forward (F) in the virtual three-dimensional space 60. If Yc ′ is negative, the position of the object 64 is updated so that the object 64 is moved backward (B) in the virtual three-dimensional space 60. If Xc ′ is positive, the posture is updated so that the object 64 is tilted to the right (R) in the virtual three-dimensional space 60. If Xc ′ is negative, the posture is updated so that the object 64 is tilted to the left (L) in the virtual three-dimensional space 60. Note that one direction is identified based on each component of the corrected output value pair (Xc ′, Yc ′), that is, both Xc ′ and Yc ′, and the object 64 is caused to perform an action in the direction. It may be. For example, one direction may be calculated based on the corrected output value pair (Xc ′, Yc ′), and the object 64 may be turned so that the posture direction of the object 64 is directed in this direction.

図11は、オブジェクトの位置及び姿勢を更新する処理を示すフロー図である。同図に示す処理は、上記ユーザインタフェースプログラムに従って所定時間ごとに実行されるものであり、まずMPU11は、操作デバイス42の補助ボタン54L又は54Rが押下され、視点66の移動が指示され、それに伴って視線方向68が変更するかを判断する(S101)。そして、視線方向68が変更する場合、視線方向68とオブジェクト64の姿勢方向とのなす角θを算出するとともに、それをメインメモリ20に記憶する(S102)。視線方向68が変更しない場合、S102の処理はスキップする。   FIG. 11 is a flowchart showing processing for updating the position and orientation of an object. The processing shown in the figure is executed at predetermined time intervals according to the user interface program. First, the MPU 11 is instructed to press the auxiliary button 54L or 54R of the operation device 42 to move the viewpoint 66, and accordingly It is then determined whether the line-of-sight direction 68 changes (S101). When the line-of-sight direction 68 changes, the angle θ formed by the line-of-sight direction 68 and the posture direction of the object 64 is calculated and stored in the main memory 20 (S102). When the line-of-sight direction 68 does not change, the process of S102 is skipped.

次に、加速度センサ58の出力値のペア(Xc,Yc)を取得し(S103)、それに対して、S102で算出され、すでにメインメモリ20に記憶されているなす角θを用いた回転処理を施し、補正後出力値ペア(Xc’,Yc’)を算出する(S104)。そして、この補正後出力値ペア(Xc’,Yc’)に基づいて、仮想3次元空間60においてオブジェクト64の位置及び姿勢を変化させる。   Next, a pair (Xc, Yc) of output values of the acceleration sensor 58 is acquired (S103). On the other hand, a rotation process using the angle θ formed in S102 and already stored in the main memory 20 is performed. The corrected output value pair (Xc ′, Yc ′) is calculated (S104). Based on the corrected output value pair (Xc ′, Yc ′), the position and orientation of the object 64 are changed in the virtual three-dimensional space 60.

以上説明した本実施形態によれば、オブジェクト64の仮想3次元空間60における姿勢方向(Ya軸方向)と視線方向68とのなす角、すなわち両方向の差を示す方向差情報を算出し、該方向差情報と操作デバイス42の加速度センサ58の出力値、すなわち操作デバイス42の姿勢情報とに応じた方向に、オブジェクト64を仮想3次元空間60において動作させるので、モニタ26に表示されるオブジェクト64の姿勢に応じて、どの方向に操作デバイス42を傾けるとどの方向にオブジェクト64が動作するかを制御でき、きわめて直感的なユーザインタフェースを実現できる。   According to the present embodiment described above, the angle between the posture direction (Ya axis direction) of the object 64 in the virtual three-dimensional space 60 and the line-of-sight direction 68, that is, the direction difference information indicating the difference between both directions is calculated. Since the object 64 is moved in the virtual three-dimensional space 60 in the direction corresponding to the difference information and the output value of the acceleration sensor 58 of the operation device 42, that is, the posture information of the operation device 42, the object 64 displayed on the monitor 26 is displayed. Depending on the posture, the direction in which the object 64 moves when the operation device 42 is tilted can be controlled, and an extremely intuitive user interface can be realized.

なお、本発明は上記実施形態に限定されるものではない。例えば、以上の説明では、操作デバイス42の姿勢に応じてオブジェクト64を左右に傾けるようにしたが、左右に移動させてもよい。また、ジャイロスコープ58の出力に応じてオブジェクト64の位置や姿勢を変更する場合にも、同様にして、視線方向68と、オブジェクト64の姿勢方向と、のなす角θに応じて、どの向きに操作デバイス42を姿勢変更すると、どの向きにオブジェクト64が動くかを制御するようにしてよい。   The present invention is not limited to the above embodiment. For example, in the above description, the object 64 is tilted left and right according to the attitude of the operation device 42, but may be moved left and right. Similarly, when the position and orientation of the object 64 are changed in accordance with the output of the gyroscope 58, the orientation of the object 64 depends on the angle θ formed by the line-of-sight direction 68 and the orientation direction of the object 64. When the posture of the operation device 42 is changed, the direction in which the object 64 moves may be controlled.

本発明の一実施形態に係るエンタテインメントシステムのハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the entertainment system which concerns on one Embodiment of this invention. MPUの構成を示す図である。It is a figure which shows the structure of MPU. 操作デバイスの外観を示す斜視図である。It is a perspective view which shows the external appearance of an operation device. 操作デバイスに設けられる加速度センサの検出内容を説明する図である。It is a figure explaining the detection content of the acceleration sensor provided in an operation device. 加速度センサの出力を説明する図である。It is a figure explaining the output of an acceleration sensor. 仮想3次元空間の一例を示す図である。It is a figure which shows an example of virtual three-dimensional space. モニタに表示される空間画像及び操作デバイスの操作方法を示す図である。It is a figure which shows the operation method of the space image displayed on a monitor, and an operation device. モニタに表示される空間画像及び操作デバイスの操作方法を示す図である。It is a figure which shows the operation method of the space image displayed on a monitor, and an operation device. オブジェクトの姿勢方向と視線方向とのなす角θを示す図である。It is a figure which shows angle (theta) which the attitude | position direction of an object and the gaze direction make. 加速度センサの出力値を変換する処理を説明する図である。It is a figure explaining the process which converts the output value of an acceleration sensor. オブジェクトの位置及び姿勢の更新処理を示すフロー図である。It is a flowchart which shows the update process of the position and attitude | position of an object.

符号の説明Explanation of symbols

10 エンタテインメントシステム、11 MPU、12 メインプロセッサ、14a〜14h サブプロセッサ、16 バス、18 メモリコントローラ、20 メインメモリ、22,40,44 インタフェース、24 画像処理部、26 モニタ、28 入出力処理部、30 音声処理部、32 スピーカ、34 光ディスク読み取り部、36 光ディスク、38 ハードディスク、42 操作デバイス、46 カメラユニット、50 方向キー、52 ボタン、54 補助ボタン、56 加速度センサ、58 ジャイロスコープ、60 仮想3次元空間、61 ワールド座標系、62 視点軌道、64 オブジェクト、65 オブジェクト座標系。   10 Entertainment System, 11 MPU, 12 Main Processor, 14a-14h Sub-Processor, 16 Bus, 18 Memory Controller, 20 Main Memory, 22, 40, 44 Interface, 24 Image Processing Unit, 26 Monitor, 28 Input / Output Processing Unit, 30 Audio processing unit, 32 speakers, 34 optical disk reading unit, 36 optical disk, 38 hard disk, 42 operation device, 46 camera unit, 50 direction keys, 52 buttons, 54 auxiliary buttons, 56 acceleration sensor, 58 gyroscope, 60 virtual three-dimensional space 61 World coordinate system, 62 viewpoint trajectory, 64 objects, 65 object coordinate system.

Claims (3)

オブジェクトが配置された仮想3次元空間において、該仮想3次元空間に配置された視点から、前記オブジェクトに向かう視線方向を見た様子を示す空間画像を表示する空間画像表示手段と、
前記視点又は前記オブジェクトの少なくとも一方の他方に対する相対的位置を前記仮想3次元空間において移動させて、前記視線方向を変更する視線方向変更手段と、
前記オブジェクトの前記仮想3次元空間における姿勢方向を取得するオブジェクト姿勢方向取得手段と、
所定時間毎に、前記オブジェクト姿勢方向取得手段により取得される現在の前記姿勢方向と現在の前記視線方向との差を示す方向差情報を算出する方向差情報算出手段と、
前記オブジェクトを操作するための操作デバイスの姿勢を示す姿勢情報を取得する操作デバイス姿勢情報取得手段と、
所定時間毎に、前記方向差情報と前記操作デバイス姿勢情報取得手段により取得される現在の前記姿勢情報とに応じた方向に、前記オブジェクトを前記仮想3次元空間において動作させるオブジェクト移動手段と、
を含むことを特徴とする画像処理装置。
In a virtual three-dimensional space in which an object is arranged, a spatial image display means for displaying a spatial image showing a state of viewing a line-of-sight direction toward the object from a viewpoint arranged in the virtual three-dimensional space;
Gaze direction changing means for changing the gaze direction by moving a relative position of at least one of the viewpoint or the object in the virtual three-dimensional space;
Object posture direction acquisition means for acquiring a posture direction of the object in the virtual three-dimensional space;
Every predetermined time, and direction difference information calculating means for calculating the direction difference information indicating the difference between the current the posture direction of current the sight line direction acquired by the object orientation direction obtaining means,
Operation device posture information acquisition means for acquiring posture information indicating the posture of the operation device for operating the object;
Object moving means for moving the object in the virtual three-dimensional space in a direction according to the direction difference information and the current posture information acquired by the operating device posture information acquiring means at predetermined time intervals;
An image processing apparatus comprising:
請求項1に記載の画像処理装置において、
前記姿勢情報は、前記操作デバイスの傾き方向を示す、
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The posture information indicates a tilt direction of the operation device.
An image processing apparatus.
オブジェクトが配置された仮想3次元空間において、該仮想3次元空間に配置された視点から、前記オブジェクトに向かう視線方向を見た様子を示す空間画像を表示する空間画像表示手段、
前記視点又は前記オブジェクトの少なくとも一方の他方に対する相対的位置を前記仮想3次元空間において移動させて、前記視線方向を変更する視線方向変更手段、
前記オブジェクトの前記仮想3次元空間における姿勢方向を取得するオブジェクト姿勢方向取得手段、
所定時間毎に、前記オブジェクト姿勢方向取得手段により取得される現在の前記姿勢方向と現在の前記視線方向との差を示す方向差情報を算出する方向差情報算出手段、
前記オブジェクトを操作するための操作デバイスの姿勢を示す姿勢情報を取得する操作デバイス姿勢情報取得手段、及び
所定時間毎に、前記方向差情報と前記操作デバイス姿勢情報取得手段により取得される現在の前記姿勢情報とに応じた方向に、前記オブジェクトを前記仮想3次元空間において動作させるオブジェクト移動手段
としてコンピュータを機能させるためのプログラム。
In a virtual three-dimensional space in which an object is arranged, a spatial image display means for displaying a spatial image showing a state of viewing a line-of-sight direction toward the object from a viewpoint arranged in the virtual three-dimensional space;
Gaze direction changing means for changing the gaze direction by moving a relative position of at least one of the viewpoint or the object in the virtual three-dimensional space;
Object posture direction acquisition means for acquiring a posture direction of the object in the virtual three-dimensional space;
Every predetermined time, the direction difference information calculating means for calculating the direction difference information indicating the difference between the current of the orientation direction of the current the sight line direction acquired by the object orientation direction obtaining means,
Operation device attitude information acquisition means for acquiring attitude information indicating the attitude of the operation device for operating the object; and
A computer as an object moving unit that moves the object in the virtual three-dimensional space in a direction according to the direction difference information and the current posture information acquired by the operation device posture information acquisition unit at predetermined time intervals. A program to make it work.
JP2006140892A 2006-05-19 2006-05-19 Image processing apparatus and program Active JP4799269B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006140892A JP4799269B2 (en) 2006-05-19 2006-05-19 Image processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006140892A JP4799269B2 (en) 2006-05-19 2006-05-19 Image processing apparatus and program

Publications (2)

Publication Number Publication Date
JP2007310748A JP2007310748A (en) 2007-11-29
JP4799269B2 true JP4799269B2 (en) 2011-10-26

Family

ID=38843523

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006140892A Active JP4799269B2 (en) 2006-05-19 2006-05-19 Image processing apparatus and program

Country Status (1)

Country Link
JP (1) JP4799269B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06318058A (en) * 1993-04-28 1994-11-15 Nec Home Electron Ltd Image display device
JPH0962438A (en) * 1995-08-29 1997-03-07 Canon Inc Three-dimensional image viewpoint instructing device
JP2001269485A (en) * 2000-01-21 2001-10-02 Sony Computer Entertainment Inc Entertainment device, storage medium, and displayed object operating method
JP3583994B2 (en) * 2000-01-21 2004-11-04 株式会社ソニー・コンピュータエンタテインメント Entertainment device, storage medium, and object display method
JP3583995B2 (en) * 2000-01-21 2004-11-04 株式会社ソニー・コンピュータエンタテインメント Entertainment device, storage medium, and object display method
JP2002298160A (en) * 2001-03-29 2002-10-11 Namco Ltd Portable image generating device and program, and information storage medium

Also Published As

Publication number Publication date
JP2007310748A (en) 2007-11-29

Similar Documents

Publication Publication Date Title
JP6158406B2 (en) System for enabling video capture of interactive applications on mobile devices
US6908388B2 (en) Game system with tilt sensor and game program including viewpoint direction changing feature
JP4358181B2 (en) GAME PROGRAM AND GAME DEVICE
JP5038465B2 (en) Information processing program, information processing apparatus, information processing method, and information processing system
JP2009172010A (en) Information processing program and information processor
JP4799261B2 (en) Image display apparatus, control method thereof, and program
JP2011145744A (en) Information processing apparatus, information processing program, information processing system, and method of selecting object to be selected
US11759701B2 (en) System and method for generating user inputs for a video game
JP2007310840A (en) Information processor, and control method and program of information processor
JP5878438B2 (en) Display control device, display control system, and program
JP4667755B2 (en) GAME DEVICE AND GAME PROGRAM
JP2009061161A (en) Program, information storage medium and game system
JP6219037B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
US8708818B2 (en) Display control system, display control method, computer-readable storage medium having stored thereon display control program, and display control apparatus
JP2013058156A (en) Input device, input processing program, input processing method, and input processing system
JP5367954B2 (en) GAME PROGRAM, GAME DEVICE, AND STORAGE MEDIUM
JP4878240B2 (en) Image display control device, image display method, and program
US11178384B2 (en) Information processing system, storage medium, information processing apparatus and information processing method
JP6057738B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD
JP4799269B2 (en) Image processing apparatus and program
US11285387B2 (en) Storage medium having stored therein information processing program, information processing apparatus, information processing system, and information processing method
JP2008117256A (en) Operation data input system, operation data input method and program
JP4668839B2 (en) Information processing apparatus, control method thereof, and program
JP4847594B2 (en) Image generating apparatus, image generating method, and program
JP5200158B1 (en) GAME DEVICE, CONTROL DEVICE, GAME CONTROL METHOD, AND PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090217

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20101124

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20101203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110712

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110802

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140812

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4799269

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250